✍️ 说明
日报相关信息:
网站:https://daily.nomoyu.com/
RSS:https://daily.nomoyu.com/rss/rss.xml
欢迎一起沟通交流
AI教父Hinton:别太相信科技领袖们的公开说辞,他们私下对AI的看法会让你不安
“人工智能教父” Geoffrey Hinton在访谈中表示,他对自己毕生的工作成果表示深切忧虑,并致力于警告世界AI带来的巨大风险,他的主要观点如下:
- AI的双重危险。辛顿将AI风险分为两类,一是人类滥用AI造成的近期威胁(如网络攻击、生物武器、操纵选举);二是在遥远未来,AI进化出超级智能,可能对人类造成生存威胁。
- 超级智能的真实性。他认为AI终将比人类更聪明是一个真实存在的风险,他用一个比喻来形容人类届时的处境:“如果你想知道当你不是顶级智能时生活会是什么样子,去问问你家饲养的动物吧。”
- AI发展的不可逆性。由于AI在医疗、教育等领域的巨大好处以及国家间的军事竞争,其发展不会被停止。
- 大规模失业是短期最大威胁。他认为AI将取代常规的脑力劳动,导致大量失业,这是对人类幸福的紧迫短期威胁。
- 对未来的职业建议。在AI时代,从事需要物理操作的职业会更安全,并直言成为一名水管工是不错的选择。
- 安全研究的紧迫性。既然无法阻止超级智能的出现,现在就必须投入大量资源研究如何确保AI不想取代或伤害人类,因为一旦它有了这种想法,人类将无力阻止。
- 离开谷歌的原因。他离开谷歌是为了能更自由地、不受公司立场影响地公开谈论AI的危险。