您现在所的位置: 主页 > 资本 > >正文

热搜!外国网友呼吁AI的命也是命!人类与AI之间有明确界线吗?人

更新时间:2022-07-30 11:52:31

  谷歌一名工程师称某AI聊天机器人可能具有自己的“意识”,并称该AI“令人印象深刻的语言技巧背后,可能还隐藏着一颗具备感知能力的心”。

  谷歌的研究员布莱克·莱莫因被人工智能说服,布莱克认为AI产生了意识。他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的“人格”,但被驳回。

  这位工程师已被谷歌解雇。但他留下的有关人工智能的话题仍在互联网发酵。

  里看,他对这个AI系统已经产生了共情。仅仅因为AI在科学上没有情感等人类品质,就可以排除或禁止一个人对AI产生共情吗?这属于人文的边界,这个边界至少目前非常模糊。

  其实,围绕AI感知力的争论多是学院的研究话题和科幻作品的灵感

  “目前大多数研究工作并不是试图制造有感知或有意识的AI,而是希望计算机在学习复杂问题上做得更好,更可靠地帮助人们处理实际问题,” 伦敦大学学院名誉教授彼得•本特利通过邮件对

  环顾现实世界,智能对话是目前AI领域应用最广泛的技术之一。从亚马逊的语音助手Alexa到苹果的Siri,在现实生活中我们对这类技术已经不陌生。同时,AI在语言翻译、智慧办公、自动驾驶、生物医药等领域也有深入应用。

  值得一提的是,谷歌旗下的DeepMind是AI生物医药领域的明星公司。DeepMind将机器学习和系统神经科学最先进技术结合起来,在预测蛋白质结构这一生物学难题上取得了长足进步,将人类蛋白质组预测范围覆盖到了98.5%。由于几乎所有疾病都与蛋白质的结构和功能息息相关,DeepMind的成就将给药物设计带来巨大的推动作用。此外,今年以来,多家跨国医药巨头都在人工智能领域建立了合作伙伴关系。

  在AI展示出广阔的应用前景之时,其带来的挑战也不容忽视。人工智能哲学专家米哈伊•赫德尔认为,这些挑战并非技术上的硬件算力问题,而更多的是人类与AI如何相处的问题。

  在赫德尔看来,AI对社会的首要冲击是争夺人类的工作机会,正如工业革命让许多农民流离失所一样。被AI取代的人是否还能像前几次技术革命后那样找到其他工作,这一切仍是未定之数。

  另一个问题是设计和使用AI的监管和伦理问题,比如自动驾驶模式下行驶的汽车导致行人死亡,责任人是汽车设计方还是操作方?随着AI越来越多地取代人类的行动,我们对责任与义务等问题的观念或许需要重新界定。

  赫德尔认为,这涉及到人工智能的道德地位问题:“它们”是人还是机器?还是介乎之间?未来人类应该如何看待“它们”?

  对此,本特利表达了自己的担忧,他表示,当人类对AI使用大量的训练数据时,人类个体可能会不经意地训练AI产生偏见——这可能意味着它会成为种族主义者或者性别歧视者,也可能也会学习淫秽语言。所以,我们必须对教给AI的东西非常小心,就像在学校教我们的孩子一样。

  美国人工智能协会前主席托马斯•迪特里希在回复

  “但是这些系统除了我们为它们设定的目的之外,并没有它们自己的动机或目标。没有‘自主和独立’的意识,它们就不会像科幻电影中的机器人那样反抗人类和寻求自由。”迪特里希进一步解释道。

  当前,立法机构已经开始注意到这些问题。比如,欧盟的人工智能法律框架就要求像LaMDA这样的聊天系统必须被明确标记为机器人,给予使用者充分的知情权。特斯拉的自动驾驶技术尽管比较先进,但在法律上仍被视为驾驶辅助系统,驾驶员在任何时候都有责任。

  迪特里希也在这个问题上给出了一些基本原则。他认为,首先,人类绝对不能制造可以完全独立操作、具有攻击人类能力的AI武器系统。在对电力和供水这类关键性基础设施进行AI自动化时也必须慎之又慎,因为这些自动系统一旦出现错误将严重扰乱社会秩序。此外,AI自动生成内容的技术在社交媒体领域也十分危险,因为操纵人们相信虚假内容、制造社会分裂是十分容易的。

  针对未来人工智能与人类的关系,迪特里希认为,“我们对AI的行为期望类似于对宠物的期望。我们教狗不要咬人,如果它们咬人,狗主人要承担责任。”

  谈及对AI的预期时,本特利也以宠物作了类比,他在回复