Stratechery网站由知名分析师本·汤普森(Ben Thompson)创立,是我获取信息的重要来源之一。该网站致力于分析和报道最新的科技和商业趋势,为读者提供深刻而富有洞察力的观点和分析。
本·汤普森在创建Stratechery网站之前,互联网上已经有很多关注科技领域的作者,他们的关注点通常在于科技产品而非科技产业本身。鉴于此,他利用自己在科技产业分析研究方面的20多年经验,开始在网站上定期发布具有洞察力和深度的文章。他的文章通俗易懂,风格简洁明了,深受读者和业内人士的欢迎。 最近,本·汤普森撰写了一篇关于ChatGpt的文章。他提到,2004年,美国科学家和企业家(Palm和Handspring的创始人)杰夫·霍金斯(Jeff Hawkins)出版了一本名为《论智能》的书,其中的一章讨论了计算机和大脑之间的差异。杰夫·霍金斯认为,计算机和大脑在本质上是不同的,因为它们建立在完全不同的原理上。计算机依靠编程,而大脑依靠自我学习;计算机有中央处理器,但大脑没有中央控制权。通过研究计算机的构成和内部原理,他认为计算机不可能拥有像人类一样的智慧。 2021年,杰夫·霍金斯又出版了一本名为《一千个大脑:关于智能的新理论》的书,并提出了「千脑智能理论」这一概念。他认为,大脑实际上是一个预测模型,通过不断预测输入信息作为内在属性,实现自我学习。当大脑的预测被验证时,大脑判定其世界模型是准确的;如果预测错误,大脑则会注意到错误并更新模型。 杰夫·霍金斯指出,智能实际上代表着能够进行预测的能力。虽然我们的大脑预测模型有时会出错,例如,失去肢体的人往往认为缺失的肢体仍在那里,他们感受到「幻影肢体」可以移动到不同的位置,感觉到位于肢体特定位置的瘙痒或疼痛,大脑需要一定的时间来处理这种错误的信念。 在人工智能(AI)领域中出现的幻觉或妄想是指AI自信地作出的回应。例如,一个没有关于特斯拉年收入数据的聊天机器人可能会选择一个随机数字,并且不断地坚称特斯拉的年收入就是这个数字,而没有在系统内部意识到这个数字是它自己想象的产物。 人类幻觉是人类感官无法合理地与外部世界联系起来,而AI幻觉则是AI未经训练数据引导而自信给出的回应。随着一些大型语言模型(LLMs)如ChatGPT的推出,AI幻觉在2022年左右变得越来越突出。用户抱怨这些机器人经常在其生成的内容中嵌入听起来很合理的谎言和数据,甚至一些聊天机器人忘记它们是机器人,并声称自己是人类。 本·汤普森在与一款名为「Sydney」的计算机程序聊天时,体验到了某种超越人机交互的感觉,虽然他并不认为Sydney是有感知能力的,但这种拟人的体验是他以前从未遇到过的。尽管AI幻觉可能导致产出垃圾信息和错误答案,但同时也能创造出新的内容,例如让计算机产生情感表达等,而这一切都源于这是以前不可想象的。 计算机可以产生如此强大的效果,源于数学逻辑和哲学思想的发展。虽然从技术角度来说,AI助手所做的一切都最终由1和0组成,但由于它们的表现并不是事先规定的,这导致了人们感觉使用ChatGpt等AI助手的体验与普通计算机有根本的不同。 AI幻觉的产生说明大型语言模型并不适合回答某些类型的问题。机器学习虽然强大,但它的结果永远不会完美,有时只能达到基本可行的程度。OpenAI正在为ChatGPT添加插件支持,这将极大地扩展诸如ChatGpt等聊天机器人的功能,并让它能够访问来自网络的实时数据,与特定网站进行交互,完整地帮助用户实现想要通过程序达成的功能。 纵观历史,探险家们一直在努力创建一张准确的世界地图。一个残酷的军事将领可能会使用地图来计划屠杀行动,一位商人可以使用完全相同的地图来和平地交换商品。地图本身并不会决定人类的用途,它只是一张地图而已,既不充满杀气也不代表着和平。发动战争或进行贸易的欲望来自于使用地图的人。 人工智能也是如此,这项技术并不可怕,真正的风险在于掌控和使用它的人的意图。人工智能已经来临,我们无法预测它将对世界带来的影响。我们当前的责任就是推动其实现积极的结果,让人工智能帮助我们改善生活,建立一个更加高效、安全和和平的世界。就像杰夫·霍金斯在书中提到的那样,航船正驶向未知的大海,我们并不知道方向是否正确,直到我们抵达终点。
|