您现在的位置是: 教育 > > 正文

做大模型究竟难在哪?

时间:2023-05-05 12:40:48 来源:爱较真的戴老师 发布者:DN032


【资料图】

2018年第一代GPT模型问世,它使用7000本书的内容做训练,最后基本做不了什么。第二代GPT模型训练参数规模达到1.5亿个,是第一代的13倍,就可以做一些简单的问答和翻译了。所以,如果一直增加训练参数,把规模提升到无限大,是不是就可以训练出一个无线智能的AI产品了?

标签:

抢先读

相关文章

热文推荐

精彩放送

关于我们| 联系我们| 投稿合作| 法律声明| 广告投放

版权所有© 2011-2023  产业研究网  www.coalstudy.com

所载文章、数据仅供参考.本站不作任何非法律允许范围内服务!

联系我们:39 60 29 14 2 @qq.com

皖ICP备2022009963号-13