同道们好呀小黑屋 调教,我是五竹。
最近国产AI文本大模子又冒出一匹黑马——Deep Seek。
一个月不到的期间不错说被捧上了天。
连外网亦然如斯,好意思区苹果诓骗商店免费App名次榜上干掉了ChatGPT,径直登顶第一。
图片
从Kimi、智谱到豆包,国产大模子被吹爆我一经见怪不怪了。关于国产大模子的立场我一直王人是听听就算了立场。
我本也没报什么但愿,但考研营的多个学员王人保举我试一下。
我靠,此次还真不是吹的。 我被狠狠打脸了!不外这脸打得首肯!
因为Deep Seek果真果真很高大。
先说我的使用论断吧:在千字著作创作方面,Claude>Deep Seek>GPT4
这是我第一次嗅觉国产大模子在创作方即是果真跳跃了GPT4!
Deep Seek 给我的最大嗅觉就是,它很擅长分析+学习+效法。
怎么说呢?就是你径直投喂指示词让它创作它可能进展很一般,可是你给它一篇著作让它分析学习再效法,服从一会儿就很惊艳!
GPT4效法的可能仅仅形,Deep Seek效法的却是阿谁味,它的深度想考才调不错甩GPT o1一条街。指示词那一套不错丢掉了!
底下用Deep Seek来一个爆文“洗稿”的实战。
在此之前先说说“洗稿”的想路:索要A著作的枢纽信息,学习B著作的写稿作风,然后二次创作。
这个想路是真香,当今一经在Claude上跑的还算不错,GPT4有点牵强。Deep Seek服从惊艳。
我们来望望具体的枢纽
1.先开放Deep Seek
官网:https://chat.deepseek.com/
图片
默许使用的是Deep Seek-V3模子,想用它最给力的R1模子,点击上图所示的「深度想考(R1)」即可。。
2.先索要A著作的枢纽信息
图片
3.学习B著作的写稿作风。
图片
图片
图片
学习经由号称完好!
4.字据枢纽信息和学习的作风进行二创
图片
图片
Deep Seek有小数作念的很好!就是对著作字数的把控才调。你诞生为900,它就收尾在1000支配。
牛奶姐姐 足交而GPT4和Claude在这方面就是两个顶点。前者写的太多,让GPT4写500,它颖异到1300。尔后者写的又太少,让Claude写2000,它亦然输出700.....
不外在施行创作方面尤其是对一些回转,爽点等施行的创作,当今照旧不如Claude。
5.来望望著作的原创度。进展很优秀,比GPT强!
图片
6.检讨一下著作的AI味。用最近较火的腾讯文本检测大模子。一次性就达标。GPT4时时要二次优化才能达标。
图片
另外,当今Coze一经相沿Deep Seek模子,这两天基于Deep Seek搭建了一个'洗稿'的智能体。
图片
图片
总体服从照旧很给力的!小黑屋 调教
本站仅提供存储处事,悉数施行均由用户发布,如发现存害或侵权施行,请点击举报。