奥尔特曼:面对AI技术革命,“既乐观又悲观”

GPT452024-05-04 11:56:55255

1.面对AI技术革命,“既乐观又悲观”

科恩布鲁斯和奥尔特曼走上台时,掌声不断。来源:与会者提供

“你的‘末日值’是多少?”

伴着科恩布鲁斯抛出的第一个问题,对话正式开始。她向奥尔特曼介绍,这场对话的所有问题,都是由学生提出、校方筛选的。

所谓“末日值”(probability of doom,简写为p(doom)),即指个人认为AI可能带领人类走向末日的机率,也是近期硅谷科技新贵们最常挂在嘴边的问候语。

这个指标的范围从1到100。数字越高,表示个人越相信AI会消灭所有人类并导致世界末日。

“我认为这个问题表述不太恰当,问题假设了一种静态的系统。”奥尔特曼回答,“虽然我自己也乐于对数字进行长篇大论。但不管这个数字是2、10、20或90,关键点在于它不是0。讨论灾难概率虽然能激发深思,但相比之下,我们更应该关注如何避免灾难,确保我们能安全、积极地面对未来。”

同时,奥尔特曼认为AI现阶段还没有“做得足够好”。十年前,他对AI有一种更“天真”的看法,将其视为一种能自行解决问题、带来财富的“魔法超级智能”;但现在,他认为AI更像是一场“技术革命”,为人类带来希望。

而对于这场技术革命,奥尔特曼是既乐观又悲观的。

他一直反复强调的观点——AI是人类科技树上的新工具(a new tool in the tech tree of humanity)。在斯坦福演讲时,奥尔特曼同样提到OpenAI在做的是“为人所用的工具(a tool for human)”,并不创造生物。人类没必要害怕超级智能的人工智能,每个新模型的缺点也是它们持续迭代的动力。

长期以来,AI一直被诟病存在价值观问题:谁来定义什么是偏见,什么是价值观?如何决定系统应该执行什么任务?社会应该在多大程度上定义这些边界,而我们又应该在多大程度上信任用户合理使用这些工具?

对于这个困境,奥尔特曼的想法是在明晰技术的潜力和限制同时,还需在技术潜能和道德限制之间找到平衡。通过人类反馈进行强化学习(RLHF)等技术,可以消减模型偏见的缺陷。

“人类本身就是充满偏见的生物,往往并不自知。”他说道,“像GPT-4或之后的GPT-5这样的模型没有和我们相同的心理缺陷。虽然它们不完美,但总的来说,我这些系统会比人类表现得更公正。”

除偏见外,AI发展的另一个核心问题是如何在用共享数据训练AI模型时保护个人隐私。

随着技术的进步,一个全知全能的个性化AI并非与我们遥不可及:它能追踪我们的电子邮件、短信今和生活记录,甚至我们看过的电视节目和文件夹。

奥尔特曼将称它是“让人又爱又恨的存在”:便利生活同时也带来了极大的隐私风险。

诚然,我们已在互联网时代中牺牲了一部分隐私以获得便利,AI的介入会让这种权衡更为复杂。“在AI发展的背景下,我们需要重新定义‘特权信息’的概念,以防止个性化AI在法律上被用于不利于我们的情况”。

“我们得的GPT-5或GPT-6成为最佳的推理引擎,目前而言,能达到最佳引擎的唯一路径就是训练大量的数据。”但奥尔特曼认为,实际模型在处理数据时浪费了许多数据资源。

比如GPT-4。它也能像数据库一样工作,只是推理速度慢、成本高昂且效果“不尽如人意”。这些问题本质上是因为模型的设计和训练方式导致的资源浪费。

“不可避免的,因为这是我们制作推理引擎模型的唯一方法的副作用。”但他能预见未来会有新方法,将模型的推理能力与对大数据的需求性剥离。

值得注意的是,就在奥尔特曼演讲的同一天,有网友在X上发文表示,OpenAI创建了一个新的搜索服务的域名:http://search.chatgpt.com,并由此推测Open在微软Bing的支持下,可能正在开发一种新的搜索服务。

图片来自X

它或将成为谷歌搜索最大的威胁,甚至完全迭代当前的搜索引擎的方式。

随后,科恩布鲁斯问了奥尔特曼一个略为“扎心”的问题,即OpenAI的闭源决策,并希望他能多说“亿点点”。但奥尔特曼选择含糊带过,言下之意就是“我们”已经提供免费的AI工具了(GPT-3.5),还要什么“自行车”。

谈及能源,奥尔特曼认为,AI的能源需求虽然巨大,但相比全球其他需求仍属于小规模。在这样的对比下,如果AI能助人类寻找到非碳能源,或优化碳捕获技术,即便耗费1%的全球电力,这也会是一种“巨大的胜利”。同时他也表示看好核聚变。

本文链接:https://lipu365.com/gpt4_gpt5_110.html

chatgpt4.0会取代前端吗chatgpt4.5chatgpt4.0使用chatgpt4怎么升级chatgpt4.0 注册详细流程chatgpt开通会员有啥优势chatgpt还需要开会员吗AI音乐工具GPT商店GPTs官网

相关文章