提供一段测试用的代码,你可以丢进colab中运行试试
!wget -q -c
https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-linux-amd64 -O cloudflared
!chmod a+x cloudflared
!pip install udocker
!udocker --allow-root pull zhu327/gemini-openai-proxy:latest
!udocker --allow-root create --name=gemini zhu327/gemini-openai-proxy:latest
!udocker --allow-root run -p 8443:8080 gemini & ./cloudflared tunnel --url
http://localhost:8443无关紧要的解释:docker中的服务默认运行在8080端口,这段代码将docker内的8080对应到主机本身的某个端口(这里随便选了8443),最后用cloudflared将该端口暴露到公网。本地的话直接运行在默认8080:8080上就行了,也不需要额外暴露,colab是因为8080已经有其他服务占用了。
全部执行完毕后,会在输出中看到一个框起来的trycloudflare.com地址,类似:
+-------------------------------------------+
| …………………………………… |
| https://***.trycloudflare.com |
+-------------------------------------------+
这个地址就是最终的API接口,客户端模型要选3.5 turbo,api key用谷歌那申请到的
似乎不需要破限,至少我这个没有
如果你遇到拒绝回答,开头可以自己伪造下AI的回复