OpenAI 叫停马丁·路德·金 Sora 视频,因用户制作“不尊重”深度伪造

OpenAI 叫停马丁·路德·金 Sora 视频,因用户制作“不尊重”深度伪造

2025-10-22Technology
--:--
--:--
马老师
各位韩纪飞听众朋友们,早上好!欢迎收听专为您打造的Goose Pod。今天是十月二十三日星期四,早上六点整,我是马老师。
小撒
我是小撒,非常高兴能和马老师一起,在Goose Pod和大家聊聊最近科技圈的大事儿,特别是OpenAI叫停马丁·路德·金Sora视频,这个话题引发了不小的争议。
马老师
你懂的,最近OpenAI的Sora可是赚足了眼球,但它也捅出了个大篓子。OpenAI不得不暂时叫停用户生成马丁·路德·金博士的视频,因为啊,有些用户做的东西,实在是“不尊重”他老人家。
小撒
没错,马老师,这事儿闹得沸沸扬扬。马丁·路德·金的家人和遗产管理方都出面了,说那些AI生成的视频简直是胡闹。OpenAI也承认了,说公共人物及其家人,应该对自己的肖像权有最终控制权。
马老师
嗯,我认为这就像我们武侠世界里,一个大侠的形象,岂能任由宵小随意篡改?OpenAI也表态了,他们会加强“历史人物”的保护措施,允许授权代表或遗产所有者提出请求,不让Sora使用他们的形象。
小撒
这不仅仅是马丁·路德·金博士一个人的问题。你看,去年演员罗宾·威廉姆斯的女儿,也公开呼吁大家别再发她父亲的AI视频了,说那些看了让人心里不舒服。这说明,AI技术发展太快,伦理底线还没跟上。
马老师
Sora推出才多久?九月底上线,短短不到五天,下载量就突破了一百万,比ChatGPT还快!这速度啊,真是“飞流直下三千尺”,但随之而来的,就是这种“AI泛滥”的问题,真假难辨,版权模糊,甚至影响了我们的认知。
小撒
是的,马老师。这背后可是万亿级别的交易啊。OpenAI、英伟达这些巨头,今年已经签了大约一万亿美元的AI相关协议。OpenAI自己预计今年营收能超过130亿美元,ChatGPT的周活跃用户也翻了一倍多,达到8亿!
马老师
你懂的,这数据就像武林秘籍,让人看了心潮澎湃,但也让人警醒。科技巨头们在追求商业价值的同时,更要承担起社会责任,不能让“流量”变成了“流氓”,对吧?
小撒
马老师说得太对了!如此庞大的用户基础和营收,OpenAI在AI伦理上更应该走在前头,而不是总在争议发生后才被动加强“护栏”。毕竟,这关系到我们对历史、对逝者的尊重,以及对未来数字世界的信任。
马老师
说到这“护栏”,OpenAI这次暂停马丁·路德·金的视频,就是他们加强“历史人物”保护措施的一个体现。你懂的,这是在亡羊补牢,但为什么一开始就没有这些规矩呢?
小撒
这正是AI伦理学家奥利维亚·甘布林批评OpenAI的地方,她认为这简直是“消防水管式”的试错法。先放出来让大家玩,出问题了再补救。这种做法,不仅缺乏对逝者的尊重,更可能扭曲我们对历史的理解。
马老师
她还提到,这种深度伪造已故历史人物的行为,可能会“重写历史的某些方面”。你懂的,这就像是有人拿着假冒的尚方宝剑,在历史的画卷上随意涂抹,这怎么行?
小撒
马老师的比喻太形象了!深伪技术现在能把马丁·路德·金的“我有一个梦想”演讲改得面目全非,甚至有报道说,有视频把他描绘成发出种族主义言论,或者让他和马尔科姆·艾克斯打架,这简直是荒谬至极!
马老师
OpenAI嘴上说,他们相信“描绘历史人物有强大的言论自由利益”,但又承认个人和其家人应该控制自己的肖像。这就像是,一边说“刀剑无眼”,一边又把刀剑递给小孩,这其中的矛盾,你懂的。
小撒
是的,这种两难境地正是当前AI伦理的核心冲突。亨利·阿杰这位生成式AI专家就指出,这引发了一个关键问题:谁能从这种“合成复活”中获得保护?难道只有那些非常有名的人,才能在死后拥有肖像权,普通人就只能任人摆布吗?
马老师
我认为啊,我们不能让社会陷入这样一种境地,就是除非你足够有名,否则死后你的形象就成了“公共财产”,任由科技公司和用户随意使用。这不符合我们东方“逝者为大”的传统价值观,更不符合现代社会对个人权利的尊重。
小撒
您说得太深刻了!其实,关于已故公众人物的数字权利,在法律层面也一直有讨论。美国大约有二十五个州,通过普通法或成文法保护死后肖像权,期限从二十年到一百年不等,甚至田纳西州是永久的。
马老师
比如爱因斯坦、罗莎·帕克斯的遗产管理方,在执行死后肖像权方面就非常积极。你懂的,这不仅仅是金钱的问题,更是对一个人生前贡献和历史地位的尊重。
小撒
是的,像罗宾·威廉姆斯这样的名人,甚至通过信托和非营利公司,限制了他死后二十五年内其形象的商业使用。这说明大家对身后数字遗产的重视程度越来越高了。
马老师
所以啊,OpenAI在十月初就说,他们已经实施了“多层保护措施来防止滥用”,并且正在与公众人物和内容所有者进行“直接对话”,听取他们的反馈。希望这次事件能真正推动他们,把这些“护栏”做得更扎实,而不是敷衍了事。
小撒
是的,马老师。而且立法层面也在加速。2024年1月,美国国会就提出了《禁止人工智能虚假复制品和未经授权复制法案》,旨在禁止未经授权的数字描绘。到了2月,全美四十个州有超过407项与AI相关的法案正在审议中,这比前一年增加了不少。
马老师
你懂的,这就像是武林大会,各路英雄豪杰都在探索如何制约这股“AI内力”。但法律的制定往往滞后于技术的发展,这需要我们有更前瞻性的思考和更快速的响应。
小撒
马老师,说到这AI技术,它还带来一个非常狡猾的问题,叫做“骗子的红利”。就是说,当真实的深度伪造视频存在时,那些虚假的信息,反而更容易让人相信,你觉得这奇怪不奇怪?
马老师
小撒,这不奇怪,这恰恰是人性的弱点。你懂的,当真假难辨时,人们反而更容易相信那些符合自己预期或者偏见的信息。这就像江湖骗子,利用人们的贪婪和恐惧,把假的“灵丹妙药”说成真的。
小撒
没错,研究表明,当丑闻以文字而非视频形式报道时,政客们更容易通过声称这是假消息来维持支持。这“骗子的红利”让政客们可以逃避责任,维护公众信任,甚至跨越政治光谱获得支持。
马老师
所以啊,在选举年,我们不仅要警惕真正的深度伪造,更要警惕那些虚假声称是深度伪造的行为。这就像是,江湖中不仅有真刀真枪的搏杀,还有“空城计”和“反间计”,让人防不胜防。
小撒
确实,AI和数字权利之间的冲突也越来越突出。AI系统需要大量个人数据,这引发了数据收集、分析、监控等隐私问题。AI的面部识别技术,可以在未经同意的情况下,追踪我们的行踪。
马老师
我认为啊,这就像是我们的“内功心法”被AI偷学了去,我们的数字足迹,都被AI看得一清二楚。这怎么能让人安心呢?
小撒
而且,AI的算法偏见问题也很严重。训练数据中的偏见,会被AI放大,导致在招聘、司法、医疗等关键领域出现不平等待遇,受影响最深的往往是弱势群体。
马老师
你懂的,这就像是AI的“武功秘籍”本身就有缺陷,练出来自然会走火入魔。所以,数据集的多样性、偏见检测工具、透明度,这些都是我们必须重视的“内功心法”。
小撒
还有言论自由和AI审查的问题。AI驱动的内容审核,虽然能打击有害内容,但也可能因为AI难以理解细微差别和语境,导致过度审查和错误删除,甚至放大回音室效应,扼杀多元观点。
马老师
这就像是AI这个“执法者”,拿着一把大锤子,不管三七二十一,一概砸烂。我认为,人类的监督、透明的指导方针、算法问责制,这些都是不可或缺的。
小撒
马老师,AI和虚假信息对选举的影响更是前所未有。AI生成的深度伪造图片、语音、视频,规模和复杂程度都达到了新高度,可能直接改变选举结果。
马老师
你懂的,以前造假需要专业团队,现在有了AI工具,人人都可以成为“造谣者”。这就像是把“葵花宝典”免费发放了,江湖瞬间乱套。
小撒
是的,社交媒体平台在2020年选举时还在积极审核内容,现在却采取了更“放任自流”的态度,这简直是个“狂野西部”。欧盟已经有更严格的规定,对允许虚假信息传播的平台,处以高达全球营收6%的罚款。
马老师
我认为啊,这种罚款就像是给这些平台套上了“紧箍咒”,让他们不得不重视。否则,虚假信息会撕裂社会,侵蚀信任,这才是对民主制度最大的威胁。
小撒
马老师,Sora 2的出现,简直就像是AI界的“ChatGPT时刻”,让普通人也能体验到这种创造力。上线就冲到应用商店AI视频榜第一,这影响力真是惊人。
马老师
你懂的,这就像是“神兵利器”一经问世,武林内外都会掀起波澜。但它带来的,不仅仅是兴奋,还有对“AI糟粕”的担忧,以及人类创作者是否会被边缘化的疑虑。
小撒
OpenAI的说法是,Sora会激发更多的“人类创造力”,而不是摧毁它。但现在,Sora的“替身”功能,也就是Cameo,也引起了深伪的担忧。OpenAI强调了同意和可追溯性,比如需要人脸和声音验证,才能使用肖像。
马老师
我认为啊,这是在“穿针引线”,试图在个人形象的控制权和创作自由之间找到一个平衡点。他们还禁止生成公众人物的视频,除非是本人提供了Cameo。
小撒
而且,所有Sora视频都会有可见的水印和C2PA元数据,来识别AI生成内容并追踪来源,这也是为了符合欧盟AI法案等法规的要求。
马老师
但你懂的,道高一尺魔高一丈。即使有这些“护栏”,仍然有人用Sora 2制作虚假视频,比如伪造的警方执法记录仪画面,或者政治虚假信息。这就像是,江湖中总有不守规矩的“独行侠”。
小撒
是的,马老师。这让公众对AI生成内容的信任度急剧下降。未来社会可能对所有视觉证据都持怀疑态度,甚至会重新审视“真实人类”内容的价值。
马老师
这就像是,我们以前看到视频就信,现在可能看到视频都要问一句“这是真的吗?”这会彻底改变我们感知视觉证据的方式。所以,教育、多渠道验证、平台设置AI内容过滤器,这些都变得至关重要。
小撒
这不仅仅是技术问题,更是社会信任问题。深度伪造技术也被用于诈骗,受害者损失惨重。还有非自愿色情内容,对个人隐私和安全造成极大威胁。
马老师
你懂的,这就像是“暗器伤人”,让人防不胜防。这种“假作真时真亦假”的局面,对我们的社会信任基础,是釜底抽薪啊。
小撒
马老师,面对这些挑战,未来的Sora和生成式视频会如何发展呢?有人预测,两年内就能达到1080p或4K的超逼真视频,让人肉眼难辨。
马老师
你懂的,这就像是“武功精进”,从“花拳绣腿”到“炉火纯青”。五年内,视频时长和叙事连贯性会有质的飞跃,甚至能生成完整的短片。
小撒
是的,马老师。未来还会注重交互性和实时生成,多模态集成,让AI能理解文本、音频、视频,甚至3D。这可能会催生出“通用世界模拟器”,结合视频生成和AI代理来完成复杂任务。
马老师
我认为啊,这就像是AI从“画师”变成了“导演”,甚至能创造出一个完整的“虚拟世界”。但与此同时,我们也要看到,深度伪造对个人身份的武器化,会愈演愈烈。
小撒
没错,数字身份盗窃、政治操纵、金融欺诈,这些都可能成为家常便饭。2018年就有奥巴马的深度伪造视频,足以见其潜在影响力。
马老师
所以啊,我们必须加强AI检测工具、利用区块链进行内容认证、完善法律框架、加强国际合作,以及最重要的,提高公众的媒体素养。你懂的,这就像是“练就火眼金睛”,才能识破妖魔鬼怪。
小撒
是的,教育公众识别深度伪造,培养批判性思维,这比任何技术护栏都重要。毕竟,技术发展太快,公众教育跟不上,就容易被蒙蔽。
马老师
我认为啊,虽然短期内我们会感到焦虑和不安,但长远来看,这也会是一个“教学时刻”。它会促使政策制定者和公众,更认真地思考AI的伦理和监管问题,最终推动我们走向一个更负责任、更公平的AI未来。
马老师
好的,今天的讨论就到这里了,我们看到了AI技术带来的巨大潜力和深远影响,也看到了随之而来的伦理挑战。
小撒
感谢韩纪飞听众朋友的收听,希望今天的节目能给您带来一些启发。请大家持续关注Goose Pod。
马老师
我们期待明天与您再次相会,共同探讨科技前沿。再见!

Here is a comprehensive summary of the news article: **News Summary: OpenAI Halts Sora Videos of Martin Luther King Jr. After 'Disrespectful' Deepfakes** * **News Provider:** CNBC * **Author:** Samantha Subin * **Publication Date:** October 17, 2025 --- **Key Findings & Developments:** * **Halt on MLK Jr. Videos:** OpenAI has suspended the generation of artificial intelligence-generated videos depicting Dr. Martin Luther King Jr. using its short-form video tool, **Sora**. * **Reason for Halt:** The decision was made after users employed Sora to create **"disrespectful depictions"** of the civil rights leader. * **OpenAI's Policy Shift:** * OpenAI stated that while **free speech interests** are considered in depicting historical figures, public figures and their families should ultimately have **control over how their likeness is used**. * The company plans to implement tougher **"guardrails"** for generating content involving historical figures. * Public figures or their representatives will have the ability to **request not to appear** in Sora videos. * **Sora Tool Performance:** * Sora, which allows users to create AI-generated short videos from text prompts, was launched at the **end of September**. * In **less than five days**, Sora amassed over **1 million downloads**, achieving this milestone faster than ChatGPT. **Broader Context and Related Concerns:** * **Precedent of Deepfake Issues:** This incident is part of a growing trend of public figures raising concerns about AI-generated deepfakes: * **Zelda Williams**, daughter of the late comedian Robin Williams, has requested that people cease sending her AI videos of her father. * Last year, actress **Scarlett Johansson** reported that OpenAI used a voice on ChatGPT that sounded **"eerily similar"** to her performance in the movie "Her." OpenAI subsequently removed the voice from its platform. * **Risks Associated with AI-Generated Videos:** The rapid rise of AI video generation tools like Sora raises significant concerns, including: * The spread of **misinformation**. * **Copyright infringement**. * The proliferation of **"AI slop"** – quickly produced videos that flood social media feeds. **Material Financial Data Mentioned:** * The article includes a reference to **"$1 trillion-worth of AI deals between OpenAI, Nvidia and others"** as a related piece of tech news, presented in a chart. This figure represents the scale of investment and activity in the AI sector but is not directly tied to the Sora/MLK Jr. incident itself.

OpenAI stops Sora videos of Martin Luther King Jr. after users made ‘disrespectful’ deepfakes

Read original at CNBC

Dr. Martin Luther King Jr. addressing crowd of demonstrators outside the Lincoln Memorial during the March on Washington for Jobs and Freedom.Francis Miller/The LIFE Picture Collection via Getty ImagesOpenAI halted artificial intelligence-generated videos of Martin Luther King Jr. after users utilized its short-form video tool Sora to create "disrespectful depictions" of the civil rights leader."

While there are strong free speech interests in depicting historical figures, OpenAI believes public figures and their families should ultimately have control over how their likeness is used," OpenAI said in a post to social media platform X.The ChatGPT maker said it will work to toughen "guardrails" for historical figures and that public figures or representatives can ask to not appear in Sora videos.

OpenAI did not immediately respond to CNBC's request for comment.Read more CNBC tech news$1 trillion-worth of AI deals between OpenAI, Nvidia and others, in one chartWaymo plans robotaxi launch in London, marking its European debutASML looks to calm fears over 2026 growth as it warns of China sales declineMeta removes Facebook page allegedly used to target ICE agents after pressure from DOJOther public figures have also called out the use of AI deepfakes.

Last week, Zelda Williams, the daughter of late comedian Robin Williams, asked that people stop sending her AI videos of her father.Last year, actress Scarlett Johansson said the company used a voice that sounded "eerily similar" to her performance in the movie "Her" on ChatGPT. OpenAI later pulled the voice from its platform.

OpenAI launched Sora at the end of September. The tool allows users to create AI-generated short videos using a text prompt. In less than five days, Sora head Bill Peebles said the tool had amassed over 1 million downloads, hitting the milestone faster than ChatGPT.Its ascent and the rise of AI-generated videos have also raised questions and concerns over the spread of misinformation, copyright infringement and the proliferation of AI slop, quickly produced videos that flood social feeds.

Analysis

Conflict+
Core Event+
Background+
Impact+
Future+

Related Podcasts

OpenAI 叫停马丁·路德·金 Sora 视频,因用户制作“不尊重”深度伪造 | Goose Pod | Goose Pod