目录引言弯路最早的思路 1思路2思路3思路4从创建一个 Remix 开始定义 .env 文件定义 chat 路由启动 Remix 服务开始与 ChatGPT 对话小结引言 本文讨论
本文讨论 ChatGTP 与 node.js 的结合,由于最近在学 Remix, 考虑到 Remix 可以单独的作为 api 来使用,并且集成了很多常用的功能:
写一个简单的 ChatGPT 服务键值不要太简单,但是我们在上面也走了一些弯路。
api.openai.com
一直请求超时,这个浪费了很长的时间,也不知道是什么原因。面对困难我们应该怎么办?先放下,搜索引里面是不是有相似的问题。结果真的需要 代理
, 尝试了一个代理,其中 api.openai-proxy.com
还挺好。注意代理的安全性自行判断。openai
还是直接发送请求到 https://api.openai.com/v1/chat/completions
或者 Https://api.openai.com/v1/completions
,又是不同的做法。经过尝试,选择了前者 + fetch 方案。axiOS
还是 fetch
呢? 都有尝试,使用方法不一样,但是效果基本一致。pnpm dlx create-remix@latest chat-app
因为 Remix 已经内置 dotenv
使用使用起来非常方便。
OPENAI_API_KEY = "your api key"
PROXY_URL = "your api proxy url"
一个是 api key, 注意不要提交到 git 上, remix 创建项目默认将 .env
文件中记录到 .gitignore
文件中。可使用 .env.example
文件给个示例提到 git 上。
/app/routes/chat.tsx
文件即可,注意是用作 api 不要返回一个默认的函数,然后对外暴露一个 loader 函数,用于处理当前路由 get 方法请求。下面是一个简单的代码实现:async function runCompletion(messages: any) {
const response = await fetch(
"https://api.openai-proxy.com/v1/chat/completions",
{
method: "POST",
headers: {
"Content-Type": "application/JSON",
Authorization: "Bearer " + process.env.OPENAI_API_KEY,
},
body: JSON.stringify({
model: "gpt-3.5-turbo",
messages: [{ role: "user", content: messages }],
}),
}
).then((res) => res.json())
return await response.choices[0].message.content;
}
export async function loader({ request }: any) {
const url = new URL(request.url);
const text = url.searchParams.get("text")!;
return runCompletion(text);
}
pnpm dev
默认在 3000 端口打开,下面我们访问 http://localhost:3000/fetch?text=吃了吗
开始与 Chat-GPT 开始友好问答:
问题二:
问题就不再提了,大家肯定开始各种方式与 AI 对话了。因为 API 现在是送的 5 刀,每一个字都是要计算 token, 并且也有时常限制。
这里对 chatapt api 的参数就不做解读了,选择哪种模型合适,就不再解读。本文的主要目的,就是使用 Remix 对接服务。
搞对接服务虽然不是难事,但是也没有想象中的简单。这是第一次对接这类接口。喜欢 Remix 的可以参考一下。
以上就是ChatGPT与Remix Api服务在浏览器url地址中对话详解的详细内容,更多关于ChatGPT对话Remix Api的资料请关注编程网其它相关文章!
--结束END--
本文标题: ChatGPT与Remix Api服务在浏览器url地址中对话详解
本文链接: https://www.lsjlt.com/news/212708.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
下载Word文档到电脑,方便收藏和打印~
2024-03-01
2024-03-01
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0