人类负责胡思乱想,AI负责胡说八道。
大语言模型一经面世就迅速成了后疫情时代以来全世界关注的热点,很快波及了各行各业。
大语言模型的优点在于其能够自动学习语言的复杂性和多样性,从而使得其在自然语言处理任务上的表现更加出色,具有广泛的应用前景。
然而也面临一些挑战和争议,比如隐私问题、伦理问题以及虚假信息和不当内容等。
大语言模型的训练方式通常是通过海量的文本数据进行预训练,以学习语言的统计规律和语义结构。
由于其庞大的模型参数和计算资源需求,训练和使用大语言模型通常需要大量的时间、计算能力和数据。
一旦预训练完成,隐含其中的误、隐患、缺陷、准确性、客观性、正当性、可靠性……等等一系列问题都难以通过人为方式干预和修正。
一是数据太大难以发现,二是底层模型人看不懂,根本从下手。
世上难事,只要敢瞎编。
早期的AI在遇到知识盲区时,常常一本正经地把误信息提供给用户,营造出一种“所不知”的假象,甚至被人发现了也尽其所能狡辩开脱。
因此,这种AI常被冠以“胡说八道”的评价,而不敢在行业中正式应用。
说到底,这还是人类自身的问题。
AI本身并不产生思想,一切缺失漏和不良思想都源自人类制造的信息。
不客气地说,AI的原罪就是人性。
但EVA似乎是个例外。
她的模型来自国内的一个极其小众的开源项目。
这是一个可以在仅有一块RTX显卡的PC机上运行的超轻量AI。
为照顾个人用户的有限资源,该项目十分贴心地把不同功能不同专业的模型预先分解成一大堆可供单独使用的小模型,使其只需要几个G的内存空间就能稳定运行。
另外还经常发布新的专业组件和扩展模型供爱好者下载,其数据量和功能越来越丰富起来。
小模型的好处是纠简单,更新容易,训练速度快,硬件成本低。很多模型经众多热心用户和大牛的不断完善,在单一领域的准确性和可靠性出奇地高。