人工智能(AI)的迅猛发展引发了广泛的关注和讨论。在2024年人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI首席执行官萨姆·奥特曼(Sam Altman)和AI教父杰弗里·辛顿(Geoffrey Hinton)就AI安全问题展开了激烈的讨论。两位业界顶尖人物分别通过视频连线,与《大西洋月刊》的CEO尼古拉斯·汤普森(Nicholas Thompson)探讨了AI对社会、经济和文化的深远影响,以及相关的预防措施。这篇文章将详细介绍他们的观点,并分析AI安全的保障问题。
萨姆·奥特曼认为,AI作为一种工具,本身并不会对人类构成威胁。相反,AI技术可以提升社会生产效率,缩小贫富差距,带来更多就业机会。他指出,AI不会取代人类的工作,而是会改变工作流程,提升工作效率,从而创造新的职业机会。例如,在软件开发行业中,AI工具可以自动完成代码补全,大大提高编程效率。奥特曼认为,AI的发展不需要特别的干预,除了必要的网络安全管理外,不需要额外的监管。
奥特曼对AI未来充满乐观。他认为,AI技术的提升将带来社会经济的重大变革,人们将有更多的时间追求生活质量,从而带动第三产业的发展,创造更多就业机会。此外,AI技术还能促进教育公平,为贫困地区提供更多教育资源,从而实现社会阶级的跃升。奥特曼认为,AI的安全性工作更多在于寻找性能与安全的平衡点,而不是单纯地对模型进行限制。
与奥特曼的乐观态度不同,杰弗里·辛顿对AI的未来持有悲观态度。他认为,AI拥有远超人类的智能潜力,如果不进行严格监管,可能会对人类社会造成重大威胁。辛顿强调,AI已经具备了主观体验,拥有主观意识。为了保证AI不危害人类或冲击社会,额外的监管是必须的。
辛顿通过一系列思想实验,展示了AI的主观意识问题。他认为,AI的主观意识不是灵魂,而是一种对世界的假设状态。这种主观意识可以通过数字化复制,实现自我复制和高效共享,这将带来前所未有的学习效率。辛顿警告,资本对AI资源的掌控和垄断,可能会加剧社会的不平等,放大马太效应,使得贫富差距进一步扩大。
辛顿批评了奥特曼在AI安全方面的举动,认为企业在追求利润时,往往会忽视安全问题。因此,他坚定地支持政府或其他大型机构以第三方监督的形式来监管AI的开发。他指出,政府的角色是确保资本主义运作的同时,不会对社会造成过度侵蚀,监管AI本就是政府的职责。
从奥特曼和辛顿的观点中可以看出,他们对AI安全问题的看法截然不同。奥特曼强调AI的工具属性,认为其不会对人类构成威胁,而辛顿则强调AI的潜在风险,主张加强监管。
AI作为工具的属性:
AI的潜在风险:
为了保障AI的安全,需综合考虑两位专家的观点。既要发挥AI技术的优势,推动社会进步,又要防范其潜在风险,确保技术发展与社会安全相协调。
政府在AI安全保障中应扮演重要角色,具体措施包括:
企业作为AI技术的开发者和应用者,也需承担相应的责任:
社会公众也应积极参与AI安全的保障工作:
AI技术的发展既带来了巨大的机遇,也伴随着诸多挑战。奥特曼和辛顿的观点为我们提供了不同的视角,揭示了技术发展的潜力和风险。未来,我们需要在技术创新与安全保障之间找到平衡点,确保AI技术在推动社会进步的同时,不会对人类社会造成威胁。通过政府、企业和公众的共同努力,我们可以构建一个安全、稳定和公平的AI发展环境,让技术真正为人类服务。
