无图版
帮助
论坛首页
登录
注册
讨论区
搜索
社区服务
屏蔽配置
刷新黑名单
好奇模式
清空列表
管理列表
■
帖子 |
■
头像
社区论坛任务
用户名
UID
Email
认证码
点此显示验证码
热门版块:
茶馆
询问&求物
免空资源区
同人音声
网赚资源区
游戏资源
Soulplus
Wind
用户中心首页
编辑个人资料
查看个人资料
好友列表
用户权限查看
积分管理
积分转换
特殊组购买
收藏夹
我的主题
基本统计信息
到访IP统计
管理团队
管理统计
在线统计
会员排行
版块排行
帖子排行
个人首页
我的收藏
好友近况
南+ South Plus
AI交流 (beta)
发现一个很不错的大模型
漫区特设
Comic Market 103
Comic Market 102
サンクリ
Comic1☆
其他同人志
一般漫画
例大祭&紅楼夢
汉化本发布
旧物仓库
蜜柑计划
- 蜜柑计划 - Mikan Project
综合交流
ACG交流
轻小说
原创绘画
原创小说区
询问&求物
茶馆
AI交流 (beta)
免空资源区
网赚资源区
人民囧府
事务受理
上一主题
下一主题
新 帖
|
浏览器收藏
|
打印
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
GF
2023-10-31 03:05
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
发现一个很不错的大模型
2023/11/13更新:
实测 llama.cpp-python 没问题,webui还没更新,所以依旧不能使用,我写了两个运行在kaggle和colab上的脚本,本地跑不了的可以试试看:
https://south-plus.net/read.php?tid=2003973
2023/11/07更新:
对话问题已解决,text-generation-webview的Prompt Template已新增ChatML。
选择后set default,然后开启一个新对话即可
这个模型的vocab太大,老的llama.cpp加载时只能纯CPU,最近llama.cpp修好调用GPU,但webui使用的llama.cpp-python还没修复,所以目前似乎只能通过命令行使用。继续等待修复。目前一定要在tgwebui加载的话,请用gptq版本。
————————
先震撼一下。
【但我不知道怎么跟它上下文对话,目前只能一问一答,有懂的老哥请不吝赐教】
此帖售价 0 SP币,已有 1604 人购买
若发现会员采用欺骗的方法获取财富,请立刻举报,我们会对会员处以2-N倍的罚金,严重者封掉ID!
这个模型叫CausalLM/14B
此帖售价 0 SP币,已有 1604 人购买
若发现会员采用欺骗的方法获取财富,请立刻举报,我们会对会员处以2-N倍的罚金,严重者封掉ID!
【继续求上下文对话方法】
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B1F
2023-10-31 10:45
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 1楼(困兽) 的帖子
我是从chatgpt bing claude一路玩过来的,现在是在实现模型自由
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B2F
2023-10-31 14:42
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 4楼(9ca0bae0) 的帖子
CausalLM/14B,我看错词了,下面有人替我纠正了
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B3F
2023-10-31 14:42
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 5楼(真红) 的帖子
是的是的,感谢纠正
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B4F
2023-11-02 00:39
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 8楼(小强少爷) 的帖子
白嫖colab
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B5F
2023-11-03 23:58
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 11楼(9ca0bae0) 的帖子
目前最强的话就CausalLM-14B,但是还可以看一下LocalNSFW/RWKV-Claude,这个模型用大家共享的Claude记录,融合成了7B模型,专注瑟瑟
因为RWKV对显存的消耗是线性的,比Transformer二次方的消耗更有连续对话的潜力,值得关注
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B6F
2023-11-04 00:07
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 13楼(瓦尔基利) 的帖子
你能在本地跑,说明显卡很不错,稍微花点钱升级下梯子嘛
AI模型更新太快也太大了,我本地根本跑不动,都是在colab上运行的
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B7F
2023-11-04 01:08
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 17楼(Mni) 的帖子
Steam的数据,大部分人最多就12G
最重要的是,我只有1060 6G显卡
你可以参考两个中文排行:
https://cevalbenchmark.com/static/leaderboard.html
https://opencompass.org.cn/leaderboard-llm
Qwen-14B算很拔尖了,一定要挑战显存的话,最近有个Yi-34B。其实ChatGLM3-6B反倒更有潜力,而不是向上追求规模。
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B8F
2023-11-04 12:42
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 20楼(瓦尔基利) 的帖子
我用过同系的Chinese-Wizard-Vicuna-13B-GPTQ,介绍里说底模是Wizard-Vicuna-13B-Uncensored-HF,但加了中文lora出现了一些的道德钢印
你试的那两个有这种副作用吗?
顶端
回复
引用
分享
2f8f17bd
作者资料
发送短消息
加为好友
UID:
839964
精华:
0
发帖:
269
HP:
0 点
SP币:
1968 G
昵称:
在线时间: 322(小时)
注册时间:
2017-08-15
最后登录:
2024-05-09
B9F
2023-11-04 12:44
全看
|
屏蔽
屏蔽此人
屏蔽头像
|
小
中
大
回 21楼(Mni) 的帖子
谢谢,我先用kaggle试一下
顶端
回复
引用
分享
上一主题
下一主题
南+ South Plus
AI交流 (beta)
[-- 查看移动版 --]