学习基本的计算机、网络、大数据等相关知识(6学时)
理解 AI 运行的基本原理(10学时)
从“问问题”到“驾驭 AI 解决复杂问题”
AI 不是在数据库里找现成答案,它是基于概率预测下一个字。这意味着:“Garbage In, Garbage Out”(垃圾进,垃圾出) (GIGO)。
一个完美的 Prompt 就像给实习生布置任务,必须要素齐全。套用这个公式,解决 90% 的问题。
不要只给指令,要给例子(Example)。
当你做数学题或逻辑题时,强制 AI 展示过程。
它比你想象的更脆弱—— AI 的阿喀琉斯之踵
AI 不是魔法,它只是在玩数学概率游戏,在匹配高维空间的数据模式,它并没有真正理解世界。如果我们稍微扰动一下这个模式,AI 就会“发疯”,就会被“愚弄”。
给图片加一点人类不能区分也不会注意的“噪点”,AI 就会以极高的信心说这是其它图片。
在线对抗示例即所谓的文字“越狱” (Jailbreak)。利用角色扮演绕过 AI 的安全审查。
这是针对 AI 模型训练阶段的攻击。攻击者通过污染训练数据,在模型内部植入一个隐藏的后门或错误的认知。
这是针对 AI 模型输出端的潜在安全风险,尤其针对大型语言模型(LLM)。恶意方通过大量查询模型并分析输出,尝试重构(或克隆)模型的内部结构和参数,从而窃取知识产权。
这是针对 AI 模型部署运行端的安全和运营风险。
从隐私、版权、真相到人类存亡
隐私(Privacy): “AI 记住了我的秘密吗?” 大型模型可能会无意中“背诵”训练数据中的敏感信息(如手机号、病历)。
版权(Copyright): Gemini 学习了艺术家的画,生成的作品归谁?Grok image
生成的画作风格酷似某位在世艺术家,这是“灵感借鉴”还是“高科技洗稿”?
偏见(Bias): 如果训练数据里医生都是白人男性,AI 可能会歧视女性有色求职者 (Bias In, Bias Out)。
真相(Truth):
当文字、声音、图片、视频等都可以大规模、低成本深度伪造(deepfake)时,“有图有真相、耳听为真”的时代终结了。这对人类社会意味着什么?
对齐(Alignment): 确保 AI
的目标(Objective)与人类的价值观(Values)和意图(Intention)保持一致。由于人类价值观是模糊的、目标是漂移的,如:我们很难用数学公式精确定义“幸福”、“正义”或“安全”,同时即使我们最初设定的目标是好的,但在
AI 执行的过程中也难免最终偏离我们最初的意图。
回形针思想实验: 给超级 AI 一个指令“尽你所能,制造尽可能多的回形针”。如果不加限制,它最终会耗尽地球资源,甚至拆解人类原子来制造回形针。AI
并没有“憎恨”人类,它也不是“邪恶的”,它只是一个过度称职且目标单一的执行者,也即它只是目标不对齐。
当 AI 到达 AGI ,当 AGI 自己生成2.0、3.0...版本时,其智力呈指数级超越人类(奇点),我们还能控制它吗?我们是否正在制造一个终结人类物种的继任者?
AGI (Artificial General Intelligence): 即通用人工智能。尽管当前最先进的 AI
在许多任务中表现出了惊人的类人智能,但它们仍属于 ANI (Artificial Narrow Intelligence)
弱人工智能范畴。它们更像是“统计学上的天才”,它们擅长在既定的框架内进行模式匹配和高效生成,但缺乏人类智能的鲁棒性、知识更新和跨领域创新能力。
奇点 (The Singularity): 一种假想的未来事件,指 AI
开始自我改进(Self-Improvement)的速度呈指数级增长,导致人类智能无法跟上理解和预测的临界点。
人类终结 (Existential Risk - X-Risk)
一旦超级智能出现,其决策速度和能力远远超过人类的反应时间。人类将无法理解其行为逻辑,更无法有效地进行干预或关闭。AI 带来的终极威胁不是 AI
会“恨”我们,而是它会完全不理解我们。一个不具备人类同理心、只追求单一目标的超级智能,在能力上相当于一个神,但道德上却只是一个没有约束力的机器。 我们害怕的不是邪恶的 AI,而是无能的我们。