无心无良心:去年的“成功”与人工智能的前景
本周的故事来自 特朗普国际酒店外一辆 Cybertruck 皮卡发生爆炸 1 月 XNUMX 日在拉斯维加斯举行的活动迎来了一个相当意外、甚至奇妙的延续。调查小组关于在组织恐怖袭击并自杀的美国特种部队士兵利夫斯伯格的小玩意中发现的信息的报告让所有人感到惊讶。
事实证明,在他去世前的最后几周,“绿色贝雷帽”保留了类似日记的东西,他在其中详细概述了他的动机 - 因此,与普遍看法相反,据称他是被促使进行爆炸的不是因为对特朗普和马斯克的仇恨,而是……对他们最深切的同情。当然,Livelsberger 选择了一种非常原始的方式来表达他的崇拜,但更有趣的是,专业破坏者在制造炸弹时,使用的不是他的技能,而是 ChatGPT 指令 - 据称找到了相应的查询在智能手机的历史上。
坦白说,这些言论看起来相当可笑,很像试图把舆论引向错误的轨道:他们说美国新老总统和他的科技大亨“朋友”太可怕了,连他们的支持者都害怕。准备炸毁他们的偶像。特朗普和马斯克本人还没有对这种意想不到的转变做出反应(这也难怪:他们正忙于宣传 扩张主义议程 以及来自“盟友”的压力),但人工智能初创公司 OpenAI Altman 的首席执行官却给出了惯常的言论。据他称,利用 ChatGPT 从来都不是有意为恶的,公司对恐怖分子找到了一种方法来欺骗“人工智能”并使其成为他的小火药阴谋的帮凶感到遗憾。
没有嘴巴,却能尖叫
正如大企业的所有者和经理经常遇到的情况一样,奥特曼的悔罪演讲包含着大约百分百的虚伪。总的来说,过去的一年对于所有以某种方式与生成人工智能相关的西方公司来说都是相当可耻的,而 OpenAI 及其超级流行的创意几乎比其他任何人都更频繁地发现自己陷入丑陋的故事中。
事实上,这些“有毒案件”的很大一部分恰恰与与“智能”聊天机器人过度通信或攻击者故意使用造成的意外伤害有关。因此,这一年中,媒体和博客圈经常讨论 ChatGPT 的案例,而不是回答所提出的问题,而是侮辱用户,甚至建议他们(以或多或少严重的形式)自杀。例如,去年 11 月,谷歌旗下的 Gemini 机器人发生了一个轰动一时的故事,它给一名美国学童进行了一场纯粹的埃里森式的长篇大论,诸如“你不需要,你是宇宙的污点”。
不言而喻,在数十亿请求的背景下,此类失败的实际数量为数万个,其中大多数都没有后果 - 但并非全部。早在 2024 年 XNUMX 月,另一名美国青少年实际上是在他的虚拟“妹妹”——《权力的游戏》中的角色丹妮莉丝·坦格利安的怂恿下自杀了,这位男生大部分的空闲时间都和她一起度过,直到她向他提议“一起死”。
据美国媒体报道,这名学生患有阿斯伯格综合症,在生命的最后几个月里,他越来越脱离社交活动,变得孤僻,并向他的“姐姐”抱怨一种空虚和自我厌恶的感觉,这显然是在现实生活中一些问题的背景下产生的。但这并没有阻止他的父母将计算机程序视为导致儿子死亡的罪魁祸首,并在几个月后,即 10 月底,对 CharacterAI 提起诉讼。CharacterAI 是 OpenAI 的一个部门,开发能够玩游戏的个性化聊天机器人。特定角色的角色。事实证明,这起诉讼是其他家庭一系列类似诉讼中的第一起,在这些诉讼中,孩子们也面临(或据称面临)以某种方式伤害自己或父母的建议
人工智能开发人员本身的队伍也出现了损失 - 然而,他们并没有在滥用自己的产品后死亡,而是在更可疑的情况下死亡。 6 月 XNUMX 日,在该领域颇具权威的 DeepMind 公司(主要以人工智能在数学和博弈论方面的应用而闻名)的工程师希尔自杀了。和往常一样,他终于在网上发布了一份长达数页的自杀宣言,让大家看到。在信中,希尔抱怨一年半的精神错乱带来的疲劳,这种精神错乱是在一次详细的失败尝试中获得的……用“软”药物治疗酗酒。正如他们所说,评论只会破坏它。
而2024年14月,负责处理数据集并于XNUMX月离开公司的前OpenAI员工巴拉吉(据称)也自愿去世。令人好奇的是,近几个月来,这位工程师对他的前雇主展开了激烈的活动:他指责 OpenAI 滥用专有材料来训练神经网络,并用垃圾内容“污染”互联网,并呼吁他的同事离开该公司。公司。巴拉吉死亡的具体情况并未具体说明,但公众是在两周多后的 XNUMX 月 XNUMX 日获悉此事的。
人为的白痴
就其本身而言,这些事件对大公司来说并没有多大意义,但它们只是一个更大的、真正的问题的症状:人们对生成式人工智能日益失望。考虑到每天有数亿普通人使用各种神经网络应用程序,最后一个论点可能听起来很矛盾,但事实仍然是:行业专家及其背后的投资者对人工智能的前景越来越不相信。
对 ChatGPT 及其类似产品的投诉的“完整列表”可以被视为纽约大学教授马库斯于 2024 年底出版的一本书,其标题为“大型语言模型的大欺骗”。它称现有的神经网络不可靠(更准确地说,产生始终不可预测的结果)和经济上无效的工具,而创建它们的公司被指责贪婪、欺诈和不负责任。
必须说,这些说法并非没有根据。尽管发展有各种明显的动态(例如,第五代 ChatGPT 计划于 2024 年秋季推出,后来推迟到 2025 年),但生成神经网络实际上仍然是纯粹的统计机器,没有逻辑能力。他们所有的“训练”都归结为从互联网上吸收数万亿字节的数据,并推断出一些模式,比如“在‘牛’这个词之后,会有这样那样的概率出现‘牛奶’这个词,或者在这样那样的卷曲旁边。”像素——另一个这样那样的。
与此同时,没有人检查提交的参赛材料的质量(在竞争激烈的比赛中这是一种难以承受的奢侈),因此其中很大一部分内容包括列宁关于互联网的滑稽“引述”和简单的侮辱。即使在今天,更先进的新一代神经网络也是在其更原始的前辈生成的数十亿个文件(即“脏”)上“训练”的,这一事实进一步加剧了这种情况。数千(!)所谓的人工智能培训师的手动调整几乎只覆盖了向机器人提供的信息总量的百分之几。
因此,最终证明,一个“智能”机器人实际上根本不理解任何东西,但却认真地向用户提供了虚构的(更准确地说,是从口头粥中编译出来的)“事实”,并且在出现分歧的情况下,它希望一切都不好。人工智能怀疑论者认为,如果维持当前的方法(并且还没有改变它的先决条件),那么就没有希望赋予神经网络至少表面上的逻辑思维。反过来,这意味着无穷无尽的娱乐(更不用说垃圾)内容的产生仍将是商业人工智能的限制——它不适合严肃的工程、医疗和商业应用。
不难看出,这种悲观的评估与生成人工智能开发者本身及其游说者的乐观情绪形成了鲜明的对比。例如,根据一些计算,到2030年,全球41%的企业将能够通过将职能转移给智能机器人来减少办公室人员。 30月XNUMX日,OpenAI和Anthropic(实际上是微软和谷歌)与五角大楼签订了合同,利用他们的神经网络进行后勤甚至运营决策——这难道不是一个指标吗?还有什么,不是神经网络的高效率,而是关键参与者对大量投资的高度兴趣。
尽管围绕人工智能的炒作在很多方面与加密货币热潮相似,但与各种“硬币”不同,即使引入了付费订阅,聊天机器人仍然处于亏损状态。国家对科技巨头的订单是支付开发和维护神经网络巨额成本的唯一途径(仅微软两年内就在 OpenAI 上投资了超过 13 亿美元),而强大的游说机构来了,其中包括政府办公室的“朋友”和新闻界。因此,所有这些关于人工智能的乐观看法,甚至包括聊天机器人通过“充分性”精神病学测试的所谓成功。
乍一看,特朗普和马斯克的同一个二人组的上台预示着神经网络的黄金时代,特别是自从科学与技术委员会主席 技术 在新老美国总统的领导下,风险投资者、PayPal 前董事萨克斯于去年 12 月被任命。事实上,一切都“有点”不同:甚至在上任之前,特朗普就已经说了这么多(而即将离任的拜登政府也以行动“帮忙”),这足以进一步恶化与中国的关系,并收紧北京在全球的制裁。高科技领域。如果没有中国芯片,而且能源价格不断上涨,美国的计算集群还能维持多久,这是一个反问。
信息