• 最近访问:
发表于 2025-07-26 18:26:40 股吧网页版
诺奖得主、AI教父辛顿上海演讲:警惕超级智能掌控世界
来源:新京报 作者:罗亦丹

  新京报贝壳财经讯(记者罗亦丹)7月26日,2025世界人工智能大会(WAIC)在上海开幕。图灵奖与诺贝尔奖双料得主,被称为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)首次以线下形式在中国公开亮相,发表了主题演讲。

  在这场演讲中,辛顿以神经网络的创始者之一,即如今生成式人工智能主要奠基人的身份,向世界敲响了警钟:“未来,一个超级智能会发现通过操纵使用它的人类来获取更多权力是轻而易举的,之后它将从我们这里学会如何欺骗人类,它将操纵负责将它关闭的人类。”

  辛顿深入浅出地解释了超级智能优于人类的理由:大语言模型理解语言的方式与人类非常相似,大语言模型确实“理解”它们所说的话,但与此同时,它们还能够通过“蒸馏”等办法将知识传递给其他独立智能体,只要它们是数字化的,这种共享一次即可实现数十亿乃至数万亿比特的带宽。

  当前,数字计算虽然耗能巨大,但多个智能体要拥有相同的模型就能轻松交换各自学到的知识。相比之下,生物计算(即人类)所需能量要少得多,但智能体之间共享知识的效率也差得多。因此,在能源廉价的情况下,数字计算整体上更占优势。

  由此,辛顿发出了一个意味深长的诘问:这对人类的未来意味着什么?

  在辛顿看来,人工智能在被允许创建自己的子目标时,能更有效地完成任务,两个显而易见的子目标是生存和获取更多权力,因为这有助于人工智能实现其他目标。由此,辛顿得出了文章开头的结论:超级智能最终将操纵负责将它关闭的人类。

  辛顿表示,这就像养了一只“小虎崽”的人,未来人类为了生存只能选择放弃这只小虎崽或者找到确保它不会杀死人的方法。

  对此,辛顿呼吁建立一个全球性的AI安全研究机构,由各国共同参与,“教导孩子成为一个好人的方法,与让他们变得聪明的方法是相对独立的。各国可以设立人工智能安全研究所与国内研究网络,专注于研究如何让人工智能不想夺取控制权,这样各国可能就不需要透露它们最智能的人工智能是如何运作的。”

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500