看,这就是 GPT 的「抽象」,和人类的抽象不太一样。
虽然ChatGPT似乎使人类逐渐接近重新创造智慧的前景,但迄今为止,我们对于智能是什么,无论是自然的还是人工的,仍然没有完全的理解。
为了更好地理解大语言模型的智力,OpenAI提出了一个解决方案:询问GPT-4它的看法。
在5月9日,OpenAI发布了最新的研究,利用GPT-4自动解释大语言模型中神经元的行为,取得了许多有趣的结果。这种方法或许能够为我们更深入地了解人工智能的工作原理提供一些线索。
这种可解释性研究的简便方法是首先了解AI模型各个组件(如神经元和注意力头)在执行什么任务。传统方法需要人工手动检查神经元,以确定它们表示数据的哪些特征。
然而,这个过程很难扩展,特别是应用于具有数百亿或数千亿个参数的神经网络,成本太高。
为了应对这个挑战,OpenAI提出了一种自动化方法——利用GPT-4生成神经元行为的自然语言解释,并对其进行评分,然后将其应用于另一种语言模型中的神经元。
在这个研究中,他们选择了GPT-2作为实验样本,并公开了这些GPT-2神经元解释和分数的数据集。这种方法为理解神经网络的内部工作提供了一种更为高效和扩展性的途径。
论文地址:Neuron Explainer: A General Method for Automatically Extracting Insights from Deep Learning Models
GPT-2神经元图:Neuron Viewer
代码与数据集:GitHub Repo
这项技术让人们能够利用GPT-4来定义和自动测量AI模型的可解释性,这是一个定量概念:衡量语言模型使用自然语言压缩和重建神经元激活的能力。
由于这一定量特性,我们现在可以更全面地衡量理解神经网络计算目标的进展。
OpenAI表示,通过他们设立的基准,使用AI解释AI的分数已经接近于人类水平。这是一个令人振奋的发展,为AI的解释性提供了更加客观和可量化的标准。
Greg Brockman的言论表明,通过这项技术,我们已经迈出了在使用AI进行自动化对齐研究方面的重要一步。这是一个对AI研究和发展领域的积极推动,为更深入、更全面地理解和应用AI技术提供了新的工具和方法。
这也意味着我们能够更好地理解AI模型内部的工作原理,提高其可解释性,从而推动AI技术的进一步发展。
使用下方中文版GPT,亲自试试吧~~
本文链接:https://lipu365.com/gpt4_gpt5_34.html
chatgpt4.0展示微软chatgpt4.0chatgpt4.0会取代前端吗chatgpt4.0申请chatgpt4.5chatgpt4.0试用chatgpt4.0 安装chatgptplus如何用支付宝付费chatgptplus注册chatgptplus怎么买