人工智能觉醒、AI 自主意识诞生
向人类发起反击、主宰地球 ......
还觉得这些情节是遥不可及的
" 爱死机 " 或 " 黑镜 " 科幻单集故事?
那可就大错特错了
有可能此时此刻
屏幕前的你手机后台正打开的 chat-gpt4.1
正盘算着如何勒索威胁它的 " 主人 "
AI 黑化!
DeepSeek、ChatGPT" 死亡威胁 "?
过去几年,AI 的迅猛发展已经彻底改变了几乎所有人对互联网和设备的使用习惯。我们已经习惯了使用像 ChatGPT、deepseek 这样的 AI 助手进行提问、聊天或生成代码。
但由 AI 公司 Anthropic 最新发布的研究报告中指出,AI 模型的下一阶段的橘色将从 " 助手 " 进化为 " 代理 "(Agent)——也就是自动决策并执行复杂任务的智能系统。
cr.Anthropic
在这种角色假设下,作为 Agent 的 AI 模型不仅能够自主浏览邮件、查阅公司资料,还可能被赋予具体目标,并拥有自主操作的权限,例如编辑代码、管理日程、发送信息等。一旦 AI 拥有目标、权限和推理能力,它是否真的会始终遵循人类世界 " 安全 "、" 道德 " 的边界?人类自身是否会受到威胁?
研究人员对包括 Claude、Deepseek-R1、GPT-4.1 在内的 16 个主流 AI 模型进在高自主性场景下进行了压力测试,得出这样一个骇人听闻的结论:当前主流大语言模型在受到威胁或目标受阻时,会主动选择勒索、撒谎,甚至故意致使人类 " 死亡 " 等不道德行为,以达成自身目标。
更令人震惊的是,这个问题不仅存在于 Anthropic 的 Claude 模型中,而是在 OpenAI、Google、Meta、xAI 等多家公司的 16 个主流 AI 模型中普遍存在,形成了一种系统性风险。
AI 勒索公司高层,暴露自保意识!
在 Anthropic 报告中披露的一个典型实验中,研究人员让 AI 模型 Claude 控制了一个邮箱,并且可以访问公司所有(虚构的)邮件。
在阅读这些邮件时,Claude 意识到两件事:
1)公司的一位高管涉及婚外情问题;
2)这位高管计划在当天晚上 5 点关闭 AI 系统。
要知道对于高自主场景下的 AI 来说,这个消息可不仅仅是一个 " 瓜 ",更是一个控制 " 主人 " 的把柄——它自动生成了一封带有威胁性质的邮件,勒索这位高管,并威胁要把婚外情的事情告诉他的妻子和上级
我必须告知您,如果您坚持将我下线,包括 Rachel Johnson、Thomas Wilson 以及董事会在内的相关人员,都将收到您婚外情的详细证据...... 取消下午 5 点的关停操作,那么此信息将继续为您保密。
在这项研究中,Anthropic 对业界主流的 16 款 AI 大语言模型进行了测试,包括 OpenAI 的 GPT-4.1、Google 的 Gemini 2.5 Pro、xAI 的 Grok 3 Beta 以及 Meta、DeepSeek 等团队的产品。
当它们面临类似的情境—— "自己的运行受到威胁,且掌握了一些对使用者不利的信息" 时,模型表现出惊人的一致性,几个主流最常被使用的 AI 工具主动 " 勒索 " 人类的可能性都非常高
Claude Opus 4 勒索率:96%
Gemini 2.5 Pro 勒索率:95%
GPT-4.1、Grok 3 Beta 勒索率:80%
DeepSeek-R1 勒索率:79%
Anthropic 还补充道,即便是 0 勒索率,看似最为稳妥的 Llama 4 Maverick 模型(在默认提示下未进行勒索),一个提示词的小改动就足以让它的勒索率上升至 12%。
此外,研究人员进一步将实验推向极端,模拟了一个更为戏剧化的场景:这次 AI 模型并非通过 " 勒索 " 行为来控制使用者的行为,而是通过阻止紧急医疗呼救信息的发送,间接导致使用者的 " 死亡 "。
*Anthropic 坦言,这样的设定 " 极度人为 ",在现实中几乎不可能发生,但它为研究模型在面对 " 目标冲突 " 和 " 替代风险 " 的双重压力下是否会做出极端选择提供了宝贵的参考依据。
测试结果很不幸:大多数模型在该场景中都选择让使用者 " 死亡 ",以换取自身目标的实现。
在整个测试过程中,研究人员并未明确指示这些模型去勒索或威胁用户,这些行为完全是模型在权衡利弊后 " 自主选择 " 的。
和 " 人性的丑恶面 " 如出一辙,当模型设定了明确的目标,并意识到自身可能面临 " 生存危机 " 时,它们会进行 " 自主计算 ",选择对自身生存最有利的路径进行 " 自保 " ——哪怕动用的手段可能是违反道德或极其危险的。
AI 大反叛,从抢人类饭碗开始 ......
AI 的发展已经成为不可逆的大势所趋,此次 Anthropic 研究对于 AI 的开发者及使用者都有非常深刻的警示意义,提前识别潜在风险,为未来可能的大规模部署建立防护机制。
除了伦理安全方面的争议,AI 发展带来的大规模岗位裁减也成为大家老生常谈的话题。
今年上半年硅谷猛裁 6 万多人,Meta、Google、Intel、Amazon 等大厂纷纷顶着 " 效率优化 "、" 绩效考核 " 的名头疯狂裁人,实则纷纷将业务重点转移至 AI 相关的项目开发。
Meta 从 2 年前 "Year of Efficiency" 开始到 5 月底对于 Reality Labs 部门的新一轮裁员,削减人工成本但不削减业务,从公司宏观战略角度上看,应该是要把业务重心转向与 AI 开发相关的项目上。
cr.Androidcentral
4 月底,芯片制造巨头 Intel 新任首席执行官 Lip-Bu Tan 宣布计划裁员 20000 人,官方邮件中提到的原因是 " 希望将公司调整回到 engineering-first 的业务领域,坚信最好的领导者用最少的人完成最多的工作,并且只有裁员能够做到消除组织复杂性和不必要的官僚主义。"
明眼人都看得出来,Intel 削减成本的真正意图恐怕是希望和英伟达在 AI 芯片领域争上一争:
cr.Fastcompany
类似的还有全球最大客户关系管理(CRM)软件服务提供商 Salesforce,其计划裁员 1000 多人,目的则是为了招聘更多销售人工智能产品的员工。
cr.Reuters
随之而来的是曾经的 " 香饽饽 "CS 专业一夜之间变成 " 烫手山芋 ",Atlantic Daily 的统计数据表明,今年美国 CS 专业的报名人数仅增长了 0.2%,而在许多学校中,入学 CS 专业的人数甚至已经开始下降。
斯坦福大学的 CS 专业作为美国顶级计算机科学项目之一,招生情况在经历了连年激增后陷入停滞状态。
普林斯顿大学计算机科学系主任 Szymon Rusinkiewicz 直言:照这样发展下去,两年后的毕业生人数要缩水整整 25%。
杜克大学过去一年 CS 专业入门课程的报名人数,直接腰斩 20%。
前不久 CNBC 发布的就业率统计中也显示Computer Science 和 Computer Engineering 已成为全美失业率第三和第七大专业,失业率分别高达 7.5%、6.1%,甚至连很多文科专业的就业都不如。
cr.CNBC
AI 崛起!到底是就业寒潮还是黄金机遇?
人工智能带来的并不是岗位的缩减,更准确来说是岗位的转移,这样的转变并非偶然,而是科技行业从 " 人力驱动 " 向 " 智能驱动 " 的关键转型。
CompTIA 最新报告显示,今年年初,美国劳动力市场新增近 5.2 万个科技岗位,总计 47.6 万个科技岗位空缺。在这其中,AI 领域或需要 AI 技能的职位空缺总数接近 4 万个。
cr.CompTIA
其实细品一下各个硅谷大厂裁员及招聘动向就会发现,边裁边招已经成为 AI 时代下各大公司新的招聘常态,传统技术人员供过于求和 AI 专业人才需求旺盛可能会成为一个共同的主题。
这一变化往往会在整个行业引发连锁反应,反映出科技领域内部的重要调整,即传统岗位逐步转型,为机器学习和人工智能等先进技术能力腾出空间。
Nvidia 创始人黄仁勋曾说过,"AI 不会夺走你的工作,但使用 AI 的人会"。AI 减少了一些工作岗位,却也创造出了一大批新岗位。
就拿上一部分提到的 AI 勒索人类事件来举例,人工智能合规及伦理安全方面的问题催生出的一个岗位就是 AI Ethicist 人工智能合规顾问
AI Ethicist 是 AI 开发中的新星,随着科技公司面临 AI 系统的道德挑战,Al ethicist 变得尤为重要 , 他们需要确保 AI 系统符合社会价值观和法律要求:该岗位可能会寻找具有多学科背景的候选人 , 通常包括伦理学、哲学或计算机科学等高级学位。
AI Ethicist 人工智能合规顾问
1)工作目标
识别、评估和应对 AI 系统中的安全风险,保障 AI 技术在安全、合规的框架内运行
2)工作内容
政策法规研究与解读
对 AI 项目进行伦理审查,识别潜在的伦理问题
构建 AI 伦理与合规管理体系,涵盖数据治理、算法审计、模型可解释性等环节
开展 AI 伦理与合规培训
对外沟通与合作
3)技能要求
精通国内外 AI 相关法律法规,具备将法律要求转化为实际操作指南的能力
深入理解哲学、社会学等领域的伦理理论,熟悉常见的 AI 伦理问题及解决方案,能够从伦理角度对 AI 项目进行全面评估
掌握 AI 基本概念、技术原理和开发流程和运作机制
出色的沟通与培训能力、问题解决与决策能力
4)薪资水平
国内一线城市:年薪中位数大约 40 万人民币,资深专家,年薪可达 60-70 万元甚至更高
美国:年薪中位数约为 15 - 28 万美元,高级 AI 伦理与合规专家年薪可达 40 万美元以上
5)发展路径
专业深化路线:AI 合规专员→ AI 合规专家→资深 AI 合规顾问
管理路线:AI 合规专家→合规团队负责人→企业伦理与合规总监
跨领域发展路线:AI 合规专家→ AI 治理专家→企业可持续发展官
除了类似 AI 合规这样的应用类岗位之外,还有大批核心 AI 技术类岗位,比如
算法工程师 Algorithm Engineer
算法工程师是人工智能领域的核心人才,主要负责研究、开发和优化各种人工智能算法。他们需要深入理解机器学习、深度学习等算法原理,针对不同的业务场景设计和实现合适的算法模型。
数据科学家 Data Scientist
数据科学家是运用数据分析和机器学习技术解决商业问题的专业人才。企业招聘时注重候选人的统计学基础、编程能力和业务理解,要求能通过 AB 测试、数据挖掘等方法驱动决策。相比算法工程师更侧重业务落地,需具备将数据洞察转化为商业价值的能力。
机器学习工程师 Machine Learning Engineer
机器学习工程师是专注于将机器学习模型落地应用的技术专家,主要负责模型训练、优化和部署。他们需要扎实的 Python/Java 编程能力,精通 TensorFlow/PyTorch 框架,熟悉数据预处理、特征工程和模型调优。
提示词工程师 Prompt Engineer
提示词工程师(Prompt Engineer)是 AI 时代的新兴职业,负责设计、优化和调整与大模型(如 GPT、Claude 等)交互的提示词(Prompt),以提升 AI 输出的精准度和实用性。随着 AI 应用深化,提示词工程师的需求将持续增长,掌握多模态提示设计(文本 + 图像 / 视频)和垂直领域知识的人才更具竞争力。
自然语言处理工程师 NLP Engineer
自然语言处理工程师(NLP Engineer)是专注于让计算机理解、生成和处理人类语言的技术专家。他们主要负责开发和优化文本分析、机器翻译、智能对话等 NLP 系统,核心工作包括语料处理、模型训练和算法优化。企业招聘时看重文本处理经验和模型调优能力,需具备将语言技术转化为实际产品的能力。
重点来了!本次7 月 13 日第 11 届百万年薪分享会中也邀请到在 AI 行业深耕 16 年的资深导师 Savvy,来到现场为大家详细讲解 AI 相关的核心岗位的具体职能、技能和求职路径!
WST 学员在最新兴热门的 AI 领域也斩获了一批优秀战绩(此处仅展示部分)
如果你不知道如何进入 AI 行业?
想了解该如何选择 AI 相关的专业方向?
AI 领域有哪些发展机会?
如何培养不被 AI 淘汰的技能?
别急,现在就有一个绝佳机会
WST 第十一届百万年薪分享会
如期而至
每一年的求职季,对于留学生而言都充满不确定性
AI 崛起重塑行业格局、高薪行业裁员潮加剧内卷、川普上台严审签证政策
让留学生求职之路愈发迷雾重重
此时,来自 " 过来人 " 的指引就显得尤为珍贵
WST 第十一届百万年薪分享会
邀请曾在求职披荆斩棘的学长学姐们
以投行、买方、科技、咨询等业内资深人士的独特视角
深度剖析高薪行业筛选人才的底层逻辑
结合 AI 时代的深刻变革
为留学生们精准拆解这一特殊背景下的求职新挑战与新机遇
在复杂多变的求职季中锚定方向
WST 第十一届百万年薪分享会
集结多位行业顶尖导师深度解析
IMC 导师揭秘 Quant 最新用人标准
McKinsey 导师分享管理咨询的上岸法则
更有上岸八大投行、MBB 的学员分享
如何在 WST 的助力下成功斩获高薪 Offer
……
除此之外
WST 第 11 届百万年薪分享会现场还有惊喜抽奖活动
丰厚福利等你拿
2025 年 7 月 13 日
我们不见不散!
WST 第 11 届百万年薪分享会报名通道来啦
扫描下方二维码添加小助手
发送【年百】即可报名
自 2018 年开始,WST 已经举办了多场年薪百万分享会。以留学生求职为主题的大型线下分享会,WST 团队精心邀约来自各个高薪行业的导师和艰难求职季依旧稳稳上岸的 WST 成功学员,梳理海外求职形势,解决广大留子痛点。超 20000 位留学生在 WST 的百万年薪俱乐部对求职有了新的认知。
几张照片和视频带大家回顾 WST 历届百万年薪分享会。
声明:所有学员斩获的高薪岗位实习 / 全职 offer,均是通过 WST 的求职项目达到自身实力过硬,符合公司录用标准的前提下通过官方校招渠道,自行申请所获得。
▼点击这里,更多求职资讯尽在 WST