AI 风险:AI 会杀死我们所有人吗?-aigc导航|ai导航
AI 风险 :AI 会杀死我们所有人吗?
有关 AI 的末日风险,首当其冲的就是 AI 会干掉所有人类。
我们自己创造的技术崛起并摧毁我们的恐惧已深深地融入了我们的文化。希腊人在普罗米修斯神话中表达了这种恐惧,普罗米修斯为人类带来了火,但同时火也具有破坏力,为此普罗米修斯被众神审判,遭受永久的折磨。玛丽·雪莱在她的小说《弗兰肯斯坦》(又名《现代普罗米修斯》)中讲述了这个神话的现代版,我们开发出了永生技术,然而这种技术崛起后试图摧毁我们。当然,詹姆斯·卡梅隆的电影《终结者》中红眼杀人机器人也为 AI 带来的恐慌抹上了浓墨重彩的一笔。
这个设想之所以得到发展,是为了鼓励我们认真考虑新技术的潜在风险,毕竟火确实可以烧毁整个城市。但同时,火也是现代文明的基础,可以在寒冷的夜晚为我们带来温暖和安全。这个神话忽视了大多数新技术带来的积极影响,一味强调破坏性,缺乏理性分析。我们不能因为前人有这样的恐惧就盲目跟从,我们可以更加理性。
我的观点是,AI 将干掉所有人类这个想法是一个严重的错误。AI 不是经过数十亿年的进化而加入适者生存之战的生物,AI 不同于动物和我们。AI 是数学、代码和计算机的产物,由人类建造,归人类所有,由人使用,由人控制。AI 发展到一定的程度就会产生自己的思想,并产生干掉所有人类的动机,这种想法本身没有充分的根据。
简而言之,AI 不会产生这种想法,它没有目标,它不想杀死你,因为它没有生命。AI 就是一台机器,就像烤面包一样,它们不会突然跳起来干掉你。
如今很明显,“浸信会”的信徒相信 AI 是杀手,大量的媒体报道了骇人听闻的“警告”,其中一些人声称有关这个话题的研究已长达几十年了,而且还说研究结果令他们感到恐惧。部分信徒甚至是AI创新方面的领导者。这些人主张对 AI 实施各种奇怪和极端的限制,禁止 AI 开发,甚至主张对数据中心发动军事空袭和核战争。他们争辩说,像我这样的人不能排除 AI 未来的灾难性后果,因此我们必须采取预防措施,哪怕是这些措施可能涉及大量的暴力和死亡,也要防止 AI 的潜在存在风险。
我认为,他们的立场并没有从科学的角度出发,他们设定的可检验假设是什么?如何证伪这个假设?我们如何得知何时进入危险区域?这些问题基本上没有答案,他们只能找借口说:“你无法证明它不会发生!”事实上,这些“浸信会”的立场是非常不科学和极端的,况且他们还在呼吁暴力行为,所以我不禁会质疑他们的动机。
具体来说,我认为他们的动机主要有以下三点:
首先,冯·诺伊曼认为核武器是结束第二次世界大战并防止第三次世界大战的唯一方法,他在回应罗伯特·奥本海默时表示,“有些人承认罪行是为了获取罪恶的殊荣。”为了宣扬自己工作的重要性,还有什么方式比公开吹嘘更加戏剧性的?这就解释了为什么实际构建和资助 AI 的“浸信会”教徒会言行不一,我们应该关注他们的行动,而不是他们的言论。
其次,有些“浸信会”教徒实际上就是“走私者”,包括“AI安全专家”、“AI伦理学家”、“AI风险研究员”等职业。他们拿了钱宣扬毁灭论,所以我们应该理性思考他们的言论。
第三,“AI 风险”已经发展成为一种“邪教”,不仅吸引了边缘人物,而且还拿到了不少的资助。这类“邪教”并不新鲜,西方的千禧年主义由来已久,并由此而产生了末世“邪教”。而如今人们对 AI 风险的恐惧与千禧年主义如出一辙。有关千禧年主义,维基百科上的说明如下:
千禧年主义的概念来自于“千纪”,即是指长度为一千年的时间循环。千禧年主义是某些基督教教派正式的或民间的信仰,这种信仰相信将来会有一个黄金时代:全球和平来临,地球将变为天堂。人类将繁荣,大一统的时代来临以及“基督统治世界”。
很明显,我们不能任由这种“邪教”来决定法律和社会的未来。
06.AI 风险 #2:AI 会毁掉我们的社会吗?
有关 AI 风险的讨论,第二个广泛的观点是 AI 会毁掉我们的社会,AI 会生成“有害”的输出,对人类造成深远的伤害。
简单来说,他们认为,即便 AI 不会干掉我们,也会散播仇恨言论和错误信息。
事实上,有关 AI 风险的描述最近从“AI 安全”(用于描述 AI 会干掉我们的术语)变成了“AI 对齐”(用于描述 AI 会“危害”到人类社会的术语)。最初担心 AI 安全的人们不满这种转变,但他们不知道如何转变回去,于是如今他们又发明了一个新词语“AI 不会干掉每个人主义”(notkilleveryoneism),虽然这个词语尚未被广泛采用,但至少意思很明确。
有关 AI 社会风险的术语“AI 对齐”是什么意思?和什么对齐?人类价值观。哪个人类的价值观?这就是棘手的地方。
碰巧的是,我曾亲历类似的情况:社交媒体“信任与安全”之战。多年来,社交媒体服务一直承受着来自政府和活动家的巨大压力,他们要求禁止、限制、审查社交媒体内容。有关“仇恨言论”(以及“算法偏见”)和“错误信息”的担忧如今已从社交媒体转移到了“AI 对齐”。
我从社交媒体大战吸取的教训是:
一方面,没有绝对的言论自由立场。首先,每个国家都会将某些内容定为非法。其次,对于某些类型的内容,几乎每个社会都会一致同意禁止访问这些内容,而无论合法与否。因此,任何内容技术平台都会受到一些限制。
另一方面,滑坡谬误(Slippery slope,一种非形式谬误,使用连串的因果推论,却夸大了每个环节的因果强度,而得到不合理的结论。)实际上并不是谬误,而是必然。一旦框架开始限制极其可怕的内容(比如仇恨言论、错误信息或虚假声明),政府机构以及其他团队就会介入,并要求对他们认为对社会和/或他们的个人偏好构成威胁的所有言论进行更严格的审查和抑制。
而如今“AI 对齐”也面临相同的状况。支持者声称他们设计的 AI 能够生成对社会有益的言论和思想,并禁止 AI 生成对社会有害的言论和思想。而反对者则声称,思想警察过于傲慢和专横,他们才是彻头彻尾的犯罪。
如果你不认为社交媒体和 AI 遭遇了相同的道德问题,至少应该意识到,相较于围绕社交媒体审查制度的斗争,有关允许 AI 生成什么内容的问题更为重要。AI 极有可能成为世界万物的控制层。AI 运作机制的重要性超越了一切。
我们不能让思想警察抑制 AI。
ai工具箱
ai导航
免费aigc导航
aigc工具
免费ai工具