查看原文
免责申明:同花顺翻译提供中文译文,我们力求但不保证数据的完全准确,翻译内容仅供参考!
PX14A6G 1 nlpc _ px14a6g.htm 国家法律和政策中心-PX14A6G

美国证券交易委员会

华盛顿特区20549

 

 

豁免征求意见通知书
根据细则14a-103

 

注册人名称:微软公司

依赖豁免的人士姓名:国家法律政策中心

依赖豁免人士地址:107 Park Washington Court,Falls Church,VA 22046

 

根据1934年《证券交易法》颁布的规则14a-6(g)(1)提交书面材料。本通知的申报人在注册人公司实益拥有的证券不超过500万美元。根据规则条款,该申报人不需要提交,但为了公开披露和考虑这些重要问题而自愿提交。

 

 

 

代理备忘录

 

TO:微软公司的股东

RE:关于2025年代理投票的议案7(“AI数据使用监督报告”)的投票理由

 

这不是征求授权投票给你的代理人。请不要将您的代理卡寄给我们;国家法律政策中心无法对您的代理进行投票,本通讯也不考虑这样的事件。NLPC敦促股东按照管理层代理邮寄的指示投票支持提案7。

 

以下信息不应被理解为投资建议。

 

照片学分随后在报告的末尾。

 

国家法律和政策中心(“NLPC”)敦促股东在微软公司(“微软”或“公司”)的2025年代理投票中投票支持其赞助的提案7。该提案的“已解决”条款指出:

 

股东要求公司以合理成本编制一份报告,省略专有或法律特权信息,在年度会议召开后一年内公布并


1


此后每年更新一次,评估在开发和培训其人工智能产品过程中真实或潜在的不道德或不当使用外部数据对公司运营和财务以及对公共福利的风险;公司采取了哪些步骤来降低这些风险;以及如何衡量这些努力的有效性。

 

简介

 

人工智能(AI)是现代经济史上最具变革性的创新之一——重塑行业、革新商业实践,并影响个人和政府如何与技术互动。人工智能在改善从医疗保健到金融服务等方方面面的潜力是不可否认的——其风险也是如此。资本对人工智能基础设施的投资目前达到了仅有美国政府投资才能与之匹敌的规模。1拥有大量人工智能存在的微软,正站在一个关键时刻

 

采取强有力的以隐私为中心的政策可能会使其成为值得信赖的领导者。

 

提案概述

 

数据是人工智能的命脉。机器学习模型需要海量数据集来学习、适应并随着时间的推移提高其性能。然而,这种对数据的渴望驱使开发者从互联网和其他数字来源寻找大量信息,其中一些信息可能无法从道德或法律上获得。AI模型可能会包含有关人类行为、语音、图像和其他敏感内容的数据,这使得它们的开发和部署成为隐私问题。

 

随着AI的成熟,公众对AI数据伦理的认识也在不断提高。消费者、监管机构和政府越来越多地提出棘手的问题,即人工智能开发者从哪里获得用于训练模型的数据。数据抓取、未经授权的数据收集,以及未经许可使用专有或版权内容,已成为AI伦理争论的焦点。如果没有适当的监督,人工智能开发可能会违反数据隐私法、侵犯知识产权或未经同意使用个人信息。

 

这一提议去年获得了超36%的股东支持。2自那以来,微软实施隐私优先的AI披露的需求只增不减。

 

提案中要求的报告将通过更多地披露微软在人工智能开发中以道德方式部署用户数据的战略来增加股东价值。这个NES寻求


1博布罗斯基,梅根。“大型科技公司在人工智能上的支出比以往任何时候都多,但这还不够,”华尔街日报,2025年10月30日。见https://www.wsj.com/tech/ai/big-tech-is-spending-more-than-ever-on-ai-and-its-still-not-enough-f2398cfe

2微软。“微软公司 2024年最终代理投票结果。”见https://www.microsoft.com/en-us/investor/corporate-governance/votingresults


2


鼓励微软采取支持隐私的立场,这可能会为公司提供强大的竞争优势,以对抗其人工智能竞争对手。

 

微软在AI开发中面临的隐私和道德挑战

 

微软是AI领域的领先企业。该公司的立场为定义对负责任的人工智能发展的期望提供了一个平台。

 

支撑微软人工智能模型的数据实践引发了道德方面的担忧。正如提案中提到的,这些包括公司与OpenAI的合作,3它与美国情报界的联系,4 5 6侵犯版权,7 8 9以及可疑的隐私功能。10 11

 

微软的组织规模、范围和影响力——该公司是全球市值最大的公司之一,12收入,13和人数14–招致不信任。微软与该行业其他实力参与者以及联邦政府的关系进一步放大了公众的关注。例如,为什么微软和苹果都在OpenAI的董事会中提供了特别席位?他们不是竞争对手吗?在美国和英国的监管机构理所当然地提出了反垄断担忧之后,这两个竞争对手才放弃了席位。15

 

与此同时,微软与OpenAI的合作也引发了自身的问题。如前所述,OpenAI面临多项不道德数据收集做法的指控,包括未经同意进行数据抓取。报告显示,OpenAI在未通知数据所有者或未获得其许可的情况下,将大量个人、版权和专有信息纳入其AI模型。这样的做法导致了法律诉讼,


3迪恩,格蕾丝。“一项诉讼称,OpenAI窃取了‘大量个人数据’,包括医疗记录和儿童信息,用于训练ChatGPT,”Business Insider,2023年6月29日。见https://www.businessinsider.com/openai-chatgpt-generative-ai-stole-personal-data-lawsuit-children-medical-2023-6

4狂欢,埃里克。“美国间谍使用微软秘密提供的人工智能服务,”福克斯商业频道,2024年5月8日。见https://www.foxbusiness.com/politics/us-spies-use-secretive-ai-service-from-microsoft

5塔赫里,曼迪。“爱德华·斯诺登发布新消息:‘你已被警告’”新闻周刊,2024年6月14日。见https://www.newsweek.com/edward-snowden-open-ai-nsa-warning-1913173

6微软。“情报机构。”见https://www.microsoft.com/en-us/federal/intelligence-agencies

7乔纳森,斯滕佩尔。“纽约时报起诉OpenAI、微软侵犯版权作品,”路透2023年12月27日。见https://www.reuters.com/legal/transactional/ny-times-sues-openai-microsoft-infring-copyright-d-work-2023-12-27/

8艾琳,鲍比。“法官允许‘纽约时报’针对OpenAI的版权案继续推进,”NPR,2025年3月26日。见https://www.npr.org/2025/03/26/nx-s1-5288157/new-york-times-openai-copyright-case-goes-forward

9Stempel,乔纳森。“微软领英因披露客户信息训练AI模型而被起诉,”路透2025年1月22日。见https://www.reuters.com/legal/microsofts-linkedin-sued-disclosing-customer-information-train-ai-models-2025-01-22/

10沃伦,汤姆。“微软的Recall AI令人毛骨悚然、聪明且引人注目,”The Verge,2024年12月12日。见https://www.theverge.com/2024/12/12/24319609/microsoft-recall-hands-on-notepad

11沃伦,汤姆。“微软为Copilot Plus PC推出Recall和AI驱动的Windows搜索,”The Verge,2025年4月25日。见https://www.theverge.com/news/656106/microsoft-recall-copilot-plus-pc-available

12见https://companiesmarketcap.com/

13见https://companiesmarketcap.com/largest-companies-by-revenue/

14见https://companiesmarketcap.com/largest-companies-by-number-of-employees/

15米尔莫,丹。《卫报》2024年7月10日报道:“在监管机构的审查下,微软放弃了OpenAI董事会的观察员席位。”见https://www.theguardian.com/technology/article/2024/jul/10/microsoft-drops-observer-seat-on-openai-board-amid-regulator-scrutiny


3


包括《纽约时报》就涉嫌侵犯版权提起的备受瞩目的诉讼。最后,美国国家安全局前局长Paul Nakasone现在是OpenAI的董事会成员。任内推动更新扩大后的监控权16被授予美国国家安全局在911事件后被滥用来监视国家安全机构的政治对手。17

 

 

中曾根在OpenAI董事会的持续地位引发了更广泛的问题,即政府干预人工智能开发以及微软与联邦政府的广泛关系。微软很大一部分收入来自政府合同。微软主导IT合同市场,18 19在没有竞争性招标过程的情况下赢得这些合同的25-30 %,“这意味着它们很可能被加价。”20作为联邦

政府寻求获得对人工智能分发的控制权,目的是控制言论自由,21政府完全有可能利用微软的合同作为获得让步的筹码,有效地将世界上最大的公司之一与国家利益纠缠在一起。例如,“推特文件”显示,FBI和CIA通过标记被视为“错误信息”的帖子或账号并建议将其删除,在推特被Elon Musk购买之前的内容审核中发挥了重要作用。22股东和公民都应该担心,美国情报机构正试图与主要的人工智能开发商进行类似的游戏,这些开发商的工具最终可能会因其塑造全球话语的力量而使社交媒体黯然失色。

 

微软的巨大权力,加上它与联邦政府的密切关系,对美国社会的个人自由构成了重大威胁。两者结合起来,通过微软的平台、产品和服务,前所未有地获得了数百万公民的个人信息。在大数据时代,个人信息越来越多地被视为一种商品,这种关系引发了大规模潜力的危险信号


16商人,诺曼;塔克,埃里克。“国家安全局局长推动国会更新监视权力,”CBS新闻,2023年1月12日。见https://www.cbsnews.com/news/nsa-director-us-surveillance-power-paul-nakasone/

17塔克,埃里克。“前FBI律师承认在俄罗斯调查期间有虚假陈述,”美联社新闻,2020年8月19日。见https://apnews.com/article/election-2020-b9b3c7ef398d00d5dfee9170d66cefec

18“新研究显示,微软在美国公共部门生产力软件领域占据85%的市场份额,”CIAA,2021年9月21日。见https://ccianet.org/news/2021/09/new-study-shows-microsoft-holds-85-market-share-in-u-s-public-sector-productivity-software/

19“与微软的数十亿美元GSA OneGov协议为Microsoft 365、Copilot和Azure云服务带来了大幅折扣,”美国总务管理局,2025年9月2日。见https://www.gsa.gov/about-us/newsroom/news-releases/multibillion-dollar-gsa-onegov-agreement-with-microsoft-brings-steep-discounts-09022025

20戈尔茨坦,卢克。《美国前景》,2024年6月11日,“国防部屈服于微软的获利回吐”。见https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/

21“对一切的不信任:错误信息和人工智能”,战略与国际研究中心,2023年7月18日。见https://www.csis.org/analysis/distrust-everything-misinformation-and-ai

22莱文,乔恩;林格,玫琳凯。“最新的推特文件显示,美国中央情报局、联邦调查局多年来一直在干预内容审核,”纽约邮报,2022年12月24日。见https://nypost.com/2022/12/24/latest-batch-of-twitter-files-shows-cia-fbi-involved-in-content-moderation/


4


监视和侵蚀隐私。此外,随着微软的人工智能工具和技术越来越多地嵌入公共基础设施,23微软与国家安全国家之间的界线越来越模糊。24这些技术被用作控制工具的潜力——无论是用于监测异议、限制言论自由,还是追踪公民——都不能被忽视。在这种背景下,微软的人工智能发展不仅仅是关于技术进步;它是关于一家公司手中的监控权力的不受控制的增长,这家公司已经表现出与政府利益保持一致的意愿,即使是以个人自由的潜在代价为代价。

 

与此同时,自去年提交这项提案以来,微软与OpenAI拉开了距离,寻求扩大自己的AI努力,着眼于最终实现自给自足。25 26至此,两家公司关系密切,股东们难以找出它们之间的界限。27 28该公司雄心勃勃的新的先进AI研究团队有着发展超级智能的远大抱负,并为公司的萌芽模型找到具体的用例。与此同时,微软自己的AI产品选择引发了隐私担忧。微软决定继续推进其Recall功能,该功能会截取用户活动的截图,尽管存在重大批评。该公司还在集体诉讼中被LinkedIn Premium用户起诉,指控“这家专注于商业的社交媒体平台在未经许可的情况下向第三方披露了他们的私人信息,以训练生成人工智能模型。”29在去年对这一提案的回应中,微软试图隐藏在OpenAI背后,将其作为一个独立的组织,其不道德的做法无法与微软挂钩。股东们看穿了这一论点,提案的高度支持就是明证。无论如何,微软今年不能再提出同样的论点了。人工智能的自给自足应该意味着数据伦理的完全所有权。

 

此外,微软的算法是保密的。随着这些系统越来越融入日常生活,塑造从贷款审批到招聘的决策,其内部运作缺乏透明度带来了重大的道德风险。AI开发的核心是机器学习算法,它依靠海量数据集进行预测、检测模式并推荐行动。这些算法如何权衡某些变量、优先考虑特定结果并做出决策,往往隐藏在“黑匣子”中。这种缺乏透明度的情况更多


23微软。“生成性人工智能和公共部门。”见https://wwps.microsoft.com/blog/ai-public-sector

24比德尔,山姆。“美国军方首次确认为作战部队购买OpenAI,”截获,2024年10月25日。见https://theintercept.com/2024/10/25/africom-microsoft-openai-military/

25斯图尔特,阿什利。“微软将斥巨资打造自己的AI芯片集群,实现‘自给自足’,AI CEO在泄露的会议上表示,”Business Insider,2025年9月11日。见https://www.businessinsider.com/microsoft-spend-heavily-own-chip-cluster-in-house-ai-models-2025-9

26埃雷拉,塞巴斯蒂安。“微软布局雄心勃勃的AI愿景,免于OpenAI,”华尔街日报,2025年11月6日。见https://www.wsj.com/tech/ai/microsoft-lays-out-ambitious-ai-vision-free-from-openai-297652ff

27微软企业博客。“微软的下一个篇章—— OpenAI合作伙伴关系”,2025年10月28日。见https://blogs.microsoft.com/blog/2025/10/28/the-next-chapter-of-the-microsoft-openai-partnership/

28威尔,乔纳森。“微软与OpenAI的交易仍然需要更多的阳光,”华尔街日报,2025年11月10日。见https://www.wsj.com/tech/ai/microsofts-dealings-with-openai-still-need-a-lot-more-sunlight-f001cb19

29Stempel,乔纳森。“微软领英因披露客户信息训练AI模型而被起诉,”路透2025年1月22日。见https://www.reuters.com/legal/microsofts-linkedin-sued-disclosing-customer-information-train-ai-models-2025-01-22/


5


而不是一个技术问题;它提出了有关问责制、信任和公平的根本问题。如果这些算法被用于关键领域,比如医疗诊断30或刑事司法风险评估,31后果可能包括不公平的结果,甚至是改变生活的错误。对微软来说,这种不透明可能会保护专有信息和知识产权,但最终会引发这样的问题,即该公司是否更看重利润和竞争优势,而不是透明度和问责制。

 

对此,市民和消费者开始要求加强对数据隐私的保护。辩论的核心是围绕谁真正“拥有”用户产生的数据——无论是个人信息、行为模式还是数字内容——以及个人对其数据如何被使用、存储或共享拥有哪些权利。32这些不断演变的期望给微软和OpenAI等公司带来了新的挑战,尤其是当它们收集大量数据来训练和完善人工智能(AI)系统时。

 

 

欧盟已成为通过2018年生效的《通用数据保护条例》(GDPR)推动更强数据权利的全球领导者。33GDPR代表了全球最全面的数据隐私法之一,从根本上改变了公司为欧盟公民收集、处理和存储个人数据的方式。它授予个人对其数据的更大控制权,包括访问、更正或删除其信息的权利,以及被告知其数据如何被使用的权利。GDPR对违规行为实施严格处罚,罚款最高可达公司全球年收入的4%,为公司遵守透明度、问责制和用户控制原则创造了强大的激励。对于像微软这样在全球范围内运营的公司来说,GDPR提高了数据道德的风险。

 

在美国,数据隐私法传统上没有欧盟那么严格,没有类似于GDPR的全面的联邦数据隐私法。然而,随着各州开始采用自己的数据保护法规,这种情况正在发生变化,这反映出人们越来越认识到隐私保护的必要性。例如,加州在2020年颁布了《加州消费者隐私法》(CCPA),34赋予居民与GDPR下的居民类似的权利,例如有权知道正在收集哪些个人信息,有权删除这些信息,以及有权选择不出售这些信息。

 


30微软。“AI for Health。”见https://www.microsoft.com/en-us/research/project/ai-for-health/

31加拿大,切尔西;Ezeh,Nicole;Widgery,Amber。“人工智能与执法:联邦和州格局”,全国州议会联盟,2025年2月3日。见https://www.ncsl.org/civil-and-criminal-justice/artificial-intelligence-and-law-enforcement-the-federal-and-state-landscape

32埃文斯-格林伍德,彼得;汉森,罗布。“数字数据的新叙事”,德勤洞察,2023年3月22日。见https://www2.deloitte.com/us/en/insights/topics/digital-transformation/data-ownership-protection-privacy-issues.html

33英特软件咨询。“GDPR。”见https://gdpr-info.eU/

34加利福尼亚州司法部。“加州消费者隐私法案(CCPA)。”见https://oag.ca.gvi/privacy/ccpa


6


数据隐私运动在其他州也正在获得势头,这造成了州一级法规的拼凑,像微软这样的大公司必须驾驭这些法规。这些围绕数据隐私的新期望表明,公众对数据所有权的态度发生了转变,美国人越来越多地要求有权控制他们的数字信息。

 

 

《纽约时报》对微软和OpenAI提起的上述诉讼是一个备受瞩目的例子,说明围绕数据所有权的不断变化的期望现在如何与法律挑战交集。《泰晤士报》指控OpenAI未经许可或赔偿,擅自抓取其版权内容训练AI模型,从而侵犯了知识产权。35如果《纽约时报》的诉讼成功,它可能会开创一个先例,对数据抓取施加更大的限制,尤其是当它涉及专有或

版权内容。这将给微软和OpenAI造成额外的障碍,迫使它们要么获得数据源的许可,要么重新考虑自己的数据集。

 

通过继续目前的做法,微软可能会卷入更多的诉讼和监管行动,这些诉讼和监管行动可能会侵蚀股东价值并损害其声誉。此外,随着消费者越来越注重隐私,他们可能会选择支持那些表现出尊重数据权利的真正承诺的公司。

 

通过隐私领导提升股东价值,构建竞争优势

 

消费者一直对他们对个人数据缺乏控制表示担忧。36麦肯锡公司认为,优先考虑数据隐私的公司将比不这样做的竞争对手建立竞争优势:37

 

随着消费者在共享数据方面变得更加谨慎,以及监管机构提高了隐私要求,领先的公司正在了解到,数据保护和隐私可以创造商业优势。

 

鉴于总体信任度较低,消费者通常希望限制他们与企业共享的数据类型也就不足为奇了。消费者有更大


35格林鲍姆,迈克尔;麦克,瑞安。“《纽约时报》就AI使用版权作品一事起诉OpenAI和微软,”2023年12月27日,纽约时报。见https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html

36安德森,莫妮卡;奥西耶,布鲁克;库马尔,马杜;佩兰,安德鲁;雷尼,李;特纳,埃里卡。“美国人与隐私:对自己的个人信息感到担忧、困惑和感觉缺乏控制,”皮尤研究中心,2019年11月15日。见https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/

37阿南特、文基;唐恰克、莉萨、卡普兰、詹姆斯;索勒、亨宁。“消费者数据的机会和隐私的必要性,”麦肯锡公司。见https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/the-consumer-data-opportunity-and-the-privacy-important


7


由于现在可用的许多隐私工具,包括内置cookie拦截器的网页浏览器、广告拦截软件(在全球超过6亿台设备上使用)和隐名浏览器(全球超过40%的互联网用户使用),对他们的个人信息进行了控制。然而,如果一项产品或服务——例如医疗保健或资金管理——对消费者至关重要,许多人愿意抛开他们的隐私问题。

 

消费者不愿意为他们认为不那么重要的交易分享数据。他们甚至可能“用脚投票”,放弃与那些他们不信任、不认同或不了解数据隐私做法的公司开展业务。

 

作者补充道:

 

我们的研究表明,我们的消费者样本根本不相信公司会处理他们的数据并保护他们的隐私。因此,公司可以通过在这一领域采取深思熟虑的积极措施来实现差异化。根据我们的经验,消费者会对那些像对待自己一样谨慎对待个人数据的公司做出回应。

 

该报告让人们明白了这样一个现实:随着数据隐私问题的增加,消费者越来越青睐那些优先考虑道德数据处理和透明度的公司。这突显了这样一个现实,即在信任至上的市场中,拥有透明、以隐私为重点的做法的公司具有战略优势。

 

围绕数据所有权的预期转变为微软提供了一个机会,通过采用透明和同意驱动的数据实践,将自己定位为道德人工智能领域的领导者。这样的转变不仅将帮助微软避免法律挑战,还将建立消费者信任,使该公司与优先考虑个人控制自己数据权利的全球标准保持一致。

 

对微软来说,这意味着透明和尊重隐私的人工智能实践可以培养客户忠诚度并减少客户流失。留住客户的经济利益是有据可查的,因为留住现有客户通常比获得新客户的成本要低得多。

 

此外,以隐私为中心的方法与日益增长的“技术乐观主义”运动相一致,该运动倡导技术赋予个人权力,而不是利用他们。这场运动的拥护者,比如风险投资家Marc Andreessen, 38认为技术应该分散权力,增强透明度,并赋予用户权力。通过支持这些价值观,微软可以吸引越来越多的用户,他们将技术视为个人赋权的工具,而不是企业控制权。这种一致性不仅会吸引消费者,还会影响公众的认知,将微软定位为道德AI领域的领导者。

 


38安德森,马克。“技术乐观主义宣言”,Andreessen Horowitz,2023年10月16日。见https://a16z.com/the-techno-optimist-manifesto/


8


最后,对隐私和透明度的强调可能会降低微软在监管反弹和法律问题上的脆弱性。随着全球范围内出现更严格的数据隐私法规,以及《纽约时报》对OpenAI的诉讼等案例凸显了不道德数据做法的风险,微软可以通过为透明度设定高标准来先发制人地降低风险。

 

微软的竞争对手,包括苹果、Meta、Alphabet和Anthropic,在处理隐私的方法上差异很大,反映了他们的价值观、商业模式和战略目标。令人惊讶的是,在过去的一年里,这些公司中没有一家借此机会确立了自己作为最注重隐私的人工智能公司的地位。了解每家公司如何处理隐私,可以洞悉人工智能伦理、透明度和消费者信任的更广阔前景。

 

苹果

 

 

 

苹果虽然不仅仅专注于人工智能,但已经成功地将自己打造成了一家隐私至上的公司。39与Meta和Alphabet不同,苹果的商业模式不依赖于广告,这使得它能够在不影响收入的情况下优先考虑用户隐私。苹果的AI驱动产品,如Siri,在设计时采用了增强隐私的技术,包括设备上的处理,最大限度地减少了数据收集,并促进了用户对个人信息的控制。

 

 

苹果广泛的隐私功能让该公司将自己推销为大型科技平台中最注重隐私的一家。然而,它将侵犯隐私的行为外包给了竞争对手,比如与谷歌的大规模搜索交易,谷歌有自己侵犯隐私的历史。40苹果已经为谷歌的Gemini和OpenAI的ChatGPT达成了类似的交易。41 42这一策略允许苹果维护隐私的门面,同时给予其他公司收集苹果客户数据的特权。


39莱斯温,基夫。“苹果正在将隐私变成一种商业优势,而不仅仅是一种营销口号,”CNBC,2021年6月7日。见https://www.cnbc.com/2021/06/07/apple-is-turning-privacy-into-a-business-advantage.html

40皮尔斯,大卫。“据报道,谷歌每年支付180亿美元成为苹果的默认搜索引擎,”The Verge,2023年10月26日。见https://www.theverge.com/2023/10/26/23933206/google-apple-search-deal-safari-18-billion

41古尔曼,马克。“苹果接近每年10亿美元的交易,将谷歌AI用于Siri,”彭博社,2025年11月5日。见https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri

42OpenAI。“OpenAI和苹果宣布合作将ChatGPT集成到苹果体验中,”2024年6月10日。见https://openai.com/index/openai-and-apple-announce-partnership/


9


 

 

Meta历来面临数据隐私问题的审查,特别是在如何使用用户数据为目标广告算法提供信息方面。43 44Meta在过去一年中因进行大规模投资以赶上人工智能军备竞赛而引起了极大的关注。45

 

由于Meta依赖用户数据获得广告收入,隐私问题将持续存在。Meta的AI算法广泛利用个人数据来生成定向广告,46这引发了人们对开源承诺是否会扩展到该公司最有价值和最敏感的数据驱动算法的担忧。Meta近年来面临的公众监督,包括剑桥分析公司丑闻,47也影响了信任,尽管开源Llama可能预示着更大的透明度,但关于Meta的隐私改进是否足够远的问题仍然存在。

 

字母表

 

Alphabet通过谷歌,在人工智能领域占据着强大的地位,利用庞大的数据资源为搜索引擎和语音助手等服务提供燃料。48然而,其与广告收入密切相关的数据做法因将用户数据收集置于隐私之上而受到了一致的批评。49Alphabet对定向广告的广泛数据跟踪一再引发隐私担忧,导致巨额罚款,尤其是根据欧盟的GDPR,原因是数据使用缺乏透明度。尽管实现了“自动删除”选项等功能,并尝试了联邦学习——数据存储在设备上,而不是集中的数据库——但这些措施的范围有限,看起来是被动的,而不是基础性的。

 

即使位置服务关闭,Alphabet的声誉也因跟踪用户位置数据等事件而进一步受损,50凸显其公共隐私承诺与现实世界实践之间的不一致。批评人士认为,Alphabet将用户隐私视为其广告驱动业务的次要因素,这与苹果等优先考虑数据最小化的公司形成鲜明对比。随着隐私期望的增长,Alphabet对广泛数据收集的依赖可能会越来越大


43Bhuiyan,Johana。“随着Threads应用程序蓬勃发展,专家警告Meta的一系列侵犯隐私行为,”《卫报》,2023年7月11日。见https://www.theguardian.com/technology/2023/jul/11/threads-app-privacy-user-data-meta-policy

44萨塔里亚诺,亚当。“Meta因违反欧盟数据隐私规则被罚13亿美元,”纽约时报,2023年5月22日。见https://www.nytimes.com/2023/05/22/business/meta-facebook-eu-privacy-fine.html

45博布罗斯基,梅根。“尽管收入创纪录,但Meta股价因加速人工智能支出而下跌,”华尔街日报,2025年10月29日。见https://www.wsj.com/tech/metaplatforms-meta-q3-earnings-report-2025-e0666e9c

46Chee,Foo Yun。“Meta在欧盟面临呼吁,不要将个人数据用于人工智能模型,”路透社,2024年6月6日。见https://www.reuters.com/technology/meta-gets-11-eu-complaints-over-use-personal-data-train-ai-models-2024-06-06/

47忏悔者,尼古拉斯。“剑桥分析公司和Facebook:迄今为止的丑闻和后果”,纽约时报,2018年4月4日。见https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html

48陈,思琳。“人工智能事件后,分析师更新Alphabet股价目标,”华尔街日报,2024年9月26日。见https://www.thestreet.com/investing/stocks/analyst-update-alphabet-stock-price-target-after-ai-event

49纳亚克,马拉地语。“谷歌因隐私问题受到抨击的所有方式:QuickTake,”彭博社,2022年2月28日。见https://www.bloomberg.com/news/articles/2022-02-28/all-the-ways-google-is-coming-under-fire-over-privacy-quicktake

50福塞尔,西德尼。“关于跟踪你位置的应用程序,最重要的事情要知道”,时间,2022年9月1日。见https://time.com/6209991/apps-collecting-personal-data/


10


与消费者对透明度和数据主权的要求发生冲突,最终挑战了其方法的可持续性。

 

人类学

 

Anthropic是一家由OpenAI前员工创立的AI研究实验室,它将自己定位为一家致力于“对齐”和AI安全的公司。其主要使命是开发符合人类利益的人工智能系统,优先考虑安全和道德,而不是快速部署。51尽管与微软、Meta或Alphabet相比,Anthropic规模较小,但其对长期AI安全的关注使其成为隐私对话的相关参与者。52

 

Anthropic强调AI行为的透明度,并对在没有严格测试的情况下将其模型部署到商业应用中持谨慎态度。虽然Anthropic的方法并没有像微软或Meta那样具体优先考虑隐私,但它对安全性、一致性和道德问题的强调间接支持了一个注重隐私的框架。通过促进部署的透明度和谨慎性,Anthropic将自己定位为一个愿意为负责任、以用户为中心的AI实践牺牲快速增长的组织。

 

鉴于Anthropic仍然相对较新,它尚未遇到重大的监管或公众审查,但其基本原则表明对道德实践的承诺,随着隐私期望的演变,这可能会提供竞争优势。

 

微软、Meta、Alphabet、Anthropic和苹果对隐私的处理方式各不相同,反映了各自不同的商业模式和消费者期望。微软和苹果将隐私作为竞争优势进行宣传,而Alphabet和Meta则因依赖广告收入而面临挑战。Anthropic对长期安全和伦理一致性的关注将其定位为隐私对话中的独特参与者。随着消费者对隐私需求的增长,这些不同的方法将塑造公众对每家公司对负责任的人工智能承诺的看法。

 

出于这样或那样的原因,微软的每一个竞争对手都有障碍,阻止他们在AI行业中作为质量和隐私方面的领导者占据主导地位。采取强有力的、以隐私为中心的立场可能会使微软有别于竞争对手,并使其与现代价值观保持一致,从而加强消费者信任和股东价值。

 

对微软来说,经济利益可能是巨大的。仅《纽约时报》诉讼的结果就可能造成数十亿美元的损失,违反GDPR或CCPA的处罚也可能造成损失。然而,更重要的问题是,到2032年,生成性人工智能市场可能达到1.3万亿美元,53和市场份额的小百分比变化将价值百亿


51Anthopic。见https://www.anthropic.com/

52哥伦比亚大学。“AI实践社区Hosts Anthropic to Explore Claude AI for Enterprise,”2024年9月27日。见https://etc.cuit.columbia.edu/news/ai-community-practice-hosts-anthropic-explore-claude-ai-enterprise

53“研究发现,到2032年,生成型人工智能将成为1.3万亿美元的市场,”2023年6月1日。见https://www.bloomberg.com/company/press/generative-ai-to-become-a-1-3-trillion-market-by-2032-research-finds/


11


美元。微软的竞争太激烈,潜在回报太大,不能把数据道德和隐私当回事。

 

结论

 

通过优先考虑隐私和道德AI,微软可以在消费者信任至关重要的行业中脱颖而出。随着监管压力越来越大,公众的期望转向数据透明和控制,微软对负责任的人工智能的承诺不仅将维护其声誉,还将提升股东价值。采用隐私优先的方法将微软定位为道德技术的领导者,使其与消费者和社会价值观保持一致。这一战略转变可以帮助微软获得可持续的竞争优势,促进长期增长,并对整个行业产生积极影响。去年股东的大力支持证明,股东们认为公司在促进隐私和数据道德方面的努力需要改进。基于这些原因,我们促请股东投票支持议案7。54

 

虽然这份报告只谈到了支持提案7的优点,但我们也建议微软投资者投票支持提案5,欧洲安全计划审查风险审计,以及提案6,生成式人工智能审查风险报告。

 

提案5解决了微软计划中有关欧洲国家将“仇恨言论”和“有害内容”等术语武器化的重要担忧,以及它们对公司的人工智能开发带来的风险,因为它涉及潜在的审查。

 

提案6关注生成式AI开发及其对宗教或政治观点的偏见相关风险,以及此类歧视是否可能影响客户、用户和其他人行使其受宪法保护的公民权利。

 

图片来源:

Page 2 – Microsoft Building,Cologne,Germany/Rawpixel.com(Creative Commons)

第4页– Paul Nakasone/INSA Events,Creative Commons

Page 6 – OpenAI graphic/focal5,Creative Commons

Page 7 – New York Times headquarters/Jessohackberry,Creative Commons

第9页– iPhone/YouTube抢屏

 

上述信息可通过电话、美国邮件、电子邮件、某些网站和某些社交媒体场所向股东传播,不应被解释为投资建议或作为对您的代理进行投票的授权征集。

 

向股东传播上述信息的成本完全由提交人承担。

 


54微软。“2025年代理声明。”见https://view.officeapps.live.com/op/view.aspx?src=https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/2025_proxystatement.docx


12


此处包含的信息是从被认为可靠的来源准备的,但美国不保证其及时性或准确性,并且不是所有可用数据的完整摘要或声明。本文仅供参考,不应被解释为研究报告。

 

代理卡将不被我们接受。请不要把你的代理寄给我们。要投票给您的代理,请按照您代理卡上的说明进行。

 

有关微软公司提案7 –要求董事会制作一份由国家法律和政策中心提交的“关于AI数据使用监督的报告”的问题–请通过电子邮件lperlot @ nlpc.org联系NLPC企业诚信项目副总监Luke Perlot。


13