|
详细信息 | 位置: 首页 >> gpt人工智能 |
ChatGPT的局限有哪些 |
编辑:创泽 来源:创泽集团 时间:2023/3/29 |
只要用户输入问题, ChatGPT 就能给予回答, 是否意味着我们不用再拿关键词去喂 Google或百 度, 就能立即获得想要的答案呢? 尽管ChatGPT表现出出色的上下文对话能力甚至编程能力, 完成了大众对人机对话机器人( Chatrobot) 从“人工智障”到“有趣”的印象改观, 我们也要看到, ChatGPT技术仍然有一些局 限性, 还在不断的进步。 1 ) ChatGPT在其未经大量语料训练的领域缺乏“人类常识”和引申能力, 甚至会一本正经的“胡 说八道” 。 ChatGPT在很多领域可以“创造答案”, 但当用户寻求正确答案时, ChatGPT也有可 能给出有误导的回答。例如让ChatGPT做一道小学应用题, 尽管它可以写出一长串计算过程, 但最 后答案却是错误的。 2 ) ChatGPT无法处理复杂冗长或者特别专业的语言结构。对于来自金融、 自然科学或医学等非常 专业领域的问题, 如果没有进行足够的语料“喂食”, ChatGPT可能无法生成适当的回答。 3 ) ChatGPT需要非常大量的算力 (芯片) 来支持其训练和部署。抛开需要大量语料数据训练模型 不说, 在目前, ChatGPT在应用时仍然需要大算力的服务器支持, 而这些服务器的成本是普通用户 无法承受的, 即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。, 如果面向真 实搜索引擎的数以亿记的用户请求, 如采取目前通行的免费策略, 任何企业都难以承受这一成本。 因此对于普通大众来说, 还需等待更轻量型的模型或更高性价比的算力平台。 4 ) ChatGPT还没法在线的把新知识纳入其中, 而出现一些新知识就去重新预训练GPT模型也是不 现实的, 无论是训练时间或训练成本, 都是普通训练者难以接受的。如果对于新知识采取在线训练 的模式, 看上去可行且语料成本相对较低, 但是很容易由于新数据的引入而导致对原有知识的灾难 性遗忘的问题。 5 ) ChatGPT仍然是黑盒模型。 目前还未能对ChatGPT的内在算法逻辑进行分解, 因此并不能保证 ChatGPT不会产生攻击甚至伤害用户的表述。 当然, 瑕不掩瑜, 有工程师贴出了要求ChatGPT写verilog代码 (芯片设计代码) 的对话。可以看 出ChatGPT水平已经超出一些verilog初学者了。
|
【声明:转载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,文章内容仅供参考,如有侵权,请联系删除。】 |
推荐信息 |
训练奖励模型通过人工标注训练数据 (约33K个数据) 来训练回报模型;采用PPO强化学习来优化策略将在线学习转化为离线学习靠奖励打分来更新预训练模型参数
DocsGPT 提出基于产品的某个版本写个 xx 示例的要求,让文档变成一个更贴近用户的好文档,让 GPT 帮你解答用户的困惑
ArxivGPT能帮你读论文,在一些地方给出注解,这个项目是基于上面的chatgpt-google-extension二次开发而来,以生成论文的读后感,提高读论文的效率
chatgpt-google-extension项目基于 ChatGPT 强化了 Google 搜索能力,它的使用也很简单,装个 Chrome 或者 Firefox 插件就能玩了
openai-translator的翻译更贴近人类的语言使用习惯,有了 ChatGPT 的加成不仅能翻译,还能帮你润色文字,有浏览器插件版,还有桌面版本
OpenAI 从11个方面对GPT-4风险进行了一系列定性和定量评估,进一步了解 GPT-4 的能力,限制和风险,并帮助提供解决方案,迭代测试和构建模型的更安全版本等
GPT-4 相比于GPT-3.5有了显著提升,在学术和专业测试中甚至能够达到与人 类相当的水平,GRE- Quantitative163;GRE- Verbal 169
AI 开创的新纪元中,OpenAI 率先开放 ChatGPT API ,在 ChatGPT,文心一言等 AIGC 产品,GPT-4,Stable Diffusion,Midjourney 等 AI 大模型的加持
|
gpt人工智能 |
迎宾机器人在楼梯处迎接客人 |
新动态 |