本帖最后由 Monosome 于 2025-9-18 15:42 编辑
我认为,当前LLM算法肯定远远达不到人类脑神经活动的复杂、灵活和精妙,当前基于LLM算法的逻辑能力也是通过在生成过程中不断抽回之前生成的内容进行检查,看上下文出现的内容是否符合概率学统计实现的。我认为目前这种机器语言…本质上是对人脑思考能力的二次翻译,是想让ai达到或接近人脑产生的效果,但ai肯定无法使用人脑真正的运作规律,因为人类自己还没搞明白脑神经科学,ai在算法上要是能再一次突破,我觉得一个很重要的前提是脑科学向前跨进一大步。目前ai就算智力尚可,对信息处理能力再发达,如果只给ai一个普通人脑子里储存的知识和信息,我的直觉告诉我LLM算法能形成的智力肯定远低于人类智力。然而ai发展不仅仅是技术上的问题,对ai技术的担忧也让我们更多地认同ai更应该像ai而不是人,所以社会会自动矫正ai的前进方向,让它符合当前社会的发展需求。不过我觉得ai的潜力一定不可估量,只是现在的我们不一定能看到了。说一个我自己听到的概念,叫AGI,目前LLM针对的也就是大语言这一个模块,要达到AGI只能说任重道远,道阻且长。
对了,现在大语言模型还有一个极其明显的弊端,记忆力弱,无论是claude,gemini还是deepseek,它可以记住过去对话里发生的事件框架,却把细节忘得一干二净,还会自己编造细节迷惑用户,比如你一开始和ai聊8点钟去路边摊吃了油条豆浆,聊着聊着你问ai早上干了什么,它知道吃饭,但就会变成7点去西餐厅吃牛排,而且想让ai承认自己的错误特别困难,如果玩过ai角色扮演的应该深有体悟...如果按照上面的逻辑解释就可以归咎于人类还没有一套完整的理论和模型解释记忆产生的过程。 |