查看原文
免责申明:同花顺翻译提供中文译文,我们力求但不保证数据的完全准确,翻译内容仅供参考!
PX14A6G 1 nlpc _ px14a6g.htm 国家法律和政策中心-PX14A6G

美国证券交易委员会

华盛顿特区20549

 

 

豁免征求意见通知书
根据细则14a-103

 

注册人名称:微软公司

依赖豁免的人士姓名:国家法律政策中心

依赖豁免人士地址:107 Park Washington Court,Falls Church,VA 22046

 

根据1934年《证券交易法》颁布的规则14a-6(g)(1)提交书面材料。根据规则条款,该申报人不需要提交,但为了公开披露和考虑这些重要问题而自愿提交。

 

 

 

代理备忘录

 

TO:微软公司的股东

RE:关于2024年代理投票的提案9的投票理由(“AI数据来源问责报告”)

 

这不是征求授权投票给你的代理人。请不要将您的代理卡寄给我们;国家法律政策中心无法对您的代理进行投票,本通讯也不考虑这样的事件。NLPC敦促股东按照管理层代理邮寄的指示投票支持提案9。

 

以下信息不应被解释为投资建议。

 

照片学分随后在报告的末尾。

 

国家法律和政策中心(“NLPC”)敦促股东在微软公司(“微软”或“公司”)的2024年代理投票中投票支持其赞助的提案9。该提案的“已解决”条款指出:

 

股东要求公司以合理的成本编制一份报告,省略专有或法律特权信息,在年会召开后一年内发布,此后每年更新一次,其中评估真实或潜在的不道德或不当使用外部


1


其人工智能产品的开发和培训中的数据;公司采取了哪些步骤来降低这些风险;以及它如何衡量这些努力的有效性。

 

 

简介

 

人工智能(AI)是现代史上最具变革性的创新之一——重塑行业、革新商业实践,并影响个人和政府与技术互动的方式。人工智能在改善从医疗保健到金融服务的所有方面的潜力是不可否认的,但它也带来了巨大的风险。拥有大量人工智能投资的微软正处于一个关键时刻,在这个关键时刻,采取强有力的以隐私为中心的政策可能会使其成为值得信赖的领导者。

 

 

数据是AI的生命线。机器学习模型需要海量数据集来学习、适应并随着时间的推移提高其性能。这种对数据的贪得无厌的渴望驱使开发者通过互联网和其他数字来源寻找大量信息,其中一些信息可能是不道德或非法获得的。AI模型可能会包含有关人类行为、语音、图像和其他敏感内容的数据,这使得它们的开发和部署成为隐私问题。

 

随着人工智能的成熟,公众对人工智能数据伦理的认识也在不断提高。消费者、监管机构和政府越来越多地提出棘手的问题,即人工智能开发者从哪里获得用于训练模型的数据。数据抓取、未经授权的收集,以及未经许可使用专有或版权内容,已成为AI伦理争论的焦点。如果没有适当的内部制衡,微软的AI开发可能会违反数据隐私法、侵犯知识产权或未经同意使用个人信息。

 

提案中要求的报告将通过改进对微软在人工智能开发中以道德方式使用用户数据的战略的披露来增加股东价值。这份报告旨在鼓励微软采取更雄心勃勃的支持隐私的立场,这可能会为公司提供强大的竞争优势。

 

微软在AI开发中面临的隐私和道德挑战

 

微软是AI领域的领先企业,这在很大程度上要归功于它与OpenAI的合作。该公司的立场为定义对负责任的人工智能发展的期望提供了一个平台。


2


支撑微软人工智能模型的数据收集做法引发了道德方面的担忧。正如提案中提到的,这些包括公司与OpenAI的合作,1它与美国情报界的联系,2 3侵犯版权,4以及可疑的隐私功能。5 6

 

微软的组织规模、范围和影响力——该公司是全球市值最大的公司之一,7收入,8和人数9–招致不信任。微软与该行业其他实力参与者以及联邦政府的关系进一步放大了公众的关注。

 

例如,为什么微软和苹果都在OpenAI的董事会中提供了特别席位?他们不是竞争对手吗?这两个竞争对手只是在反垄断担忧被提出后才放弃席位。10

 

 

微软与OpenAI的合作引发了其他问题。OpenAI面临多项不道德数据收集做法的指控,包括未经同意进行数据抓取。报告显示,OpenAI在未通知数据所有者或未获得其许可的情况下,将大量个人、版权和专有信息纳入其AI模型。此类做法已引发法律诉讼,其中包括《纽约时报》因涉嫌

侵犯版权。最后,美国国家安全局前局长Paul Nakasone现在是OpenAI的董事会成员。任内推动更新扩大后的监控权11911后授予美国国家安全局,此后被滥用来监视国家安全机构的政治对手。12

 

中曾根被任命为OpenAI董事会成员,引发了更广泛的问题,即政府干预人工智能开发,以及微软与联邦政府的广泛关系。微软很大一部分收入来自政府合同。联邦政府在IT和软件合同上的支出在100亿至150亿美元之间


1https://www.businessinsider.com/openai-chatgpt-generative-ai-stole-personal-data-lawsuit-children-medical-2023-6

2https://www.foxbusiness.com/politics/us-spies-use-secretive-ai-service-from-microsoft

3https://www.newsweek.com/edward-snowden-open-ai-nsa-warning-1913173

4https://www.reuters.com/legal/transactional/ny-times-sues-openai-microsoft-infring-copyright-d-work-2023-12-27/

5https://time.com/6980911/microsoft-copilot-recall-ai-features-privacy-concerns/

6https://www.theverge.com/2024/6/7/24173499/microsoft-windows-recall-response-security-concerns

7https://companiesmarketcap.com/

8https://companiesmarketcap.com/largest-companies-by-revenue/

9https://companiesmarketcap.com/largest-companies-by-number-of-employees/

10https://www.theguardian.com/technology/article/2024/jul/10/microsoft-drops-observer-seat-on-openai-board-amid-regulator-scrutiny

11https://www.cbsnews.com/news/nsa-director-us-surveillance-power-paul-nakasone/

12https://apnews.com/article/election-2020-b9b3c7ef398d00d5dfee9170d66cefec


3


服务。13微软主导了这些合同的市场,14在没有竞争性招标过程的情况下赢得其中25%至30%的股份,“这意味着他们很可能被加价。”15随着联邦政府寻求获得对AI分发的控制权,目的是控制言论自由,16政府完全有可能利用微软的合同作为获得让步的筹码,有效地将世界上最大的公司之一与国家利益纠缠在一起。例如,“推特文件”显示,FBI和CIA通过标记被视为“错误信息”的帖子或账号并建议将其删除,在推特被Elon Musk购买之前的内容审核中发挥了重要作用。17股东和公民都应该担心,美国情报机构正试图与主要的人工智能开发商进行类似的游戏,这些开发商的工具最终可能会因其塑造全球话语的力量而使社交媒体黯然失色。

 

微软的巨大力量,加上它与联邦政府的密切关系,对美国社会和其他地方的个人自由构成了重大威胁。两者结合起来,通过微软的平台、产品和服务,前所未有地获得了数百万公民的个人信息。在一个大数据时代,个人信息越来越多地被视为一种商品,这种关系引发了大规模监控和侵蚀隐私的可能性的危险信号。

 

此外,随着微软的AI工具和技术越来越多地嵌入公共基础设施,18微软与国家安全国家之间的界线越来越模糊。19这些技术被用作控制工具的潜力——无论是用于监测异议、限制言论自由,还是追踪公民——都不能被忽视。在此背景下,微软的AI发展并不是简单的技术进步。更重要的是,这事关一家公司手中的监控权力不受控制地增长,这家公司表现出与政府利益保持一致的意愿,甚至以牺牲个人自由为代价。

 

此外,微软的算法是秘密的。随着这些系统越来越融入日常生活,塑造从贷款审批到招聘的决策,其内部运作缺乏透明度带来了重大的道德风险。

 

AI开发的核心是机器学习算法,它依靠海量数据集进行预测、检测模式并推荐行动。这些算法如何权衡某些变量、优先考虑特定结果并做出决策,往往隐藏在“黑匣子”中。这种缺乏透明度不仅仅是一个技术问题;它提出了有关问责制、信任和公平的根本问题。如果这些算法被用于关键领域,比如医疗诊断20或刑事司法风险评估,21后果可能包括


13https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/

14https://ccianet.org/news/2021/09/new-study-shows-microsoft-holds-85-market-share-in-u-s-public-sector-productivity-software/

15https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/

16https://www.csis.org/analysis/distrust-everything-misinformation-and-ai

17https://nypost.com/2022/12/24/latest-batch-of-twitter-files-shows-cia-fbi-involved-in-content-moderation/

18https://wwps.microsoft.com/blog/ai-public-sector

19https://theintercept.com/2024/10/25/africom-microsoft-openai-military/

20https://www.forbes.com/sites/saibala/2023/01/23/microsoft-is-aggressively-investing-in-healthcare-ai/

21https://counciloncj.org/the-implications-of-ai-for-criminal-justice/


4


不公平的结果,甚至是改变生活的错误。对微软来说,这种不透明可能会保护专有信息和知识产权,但它最终引发了一个问题,即该公司是否将利润和竞争优势置于透明度和问责制之上。

 

对此,市民和消费者开始要求加强对数据隐私的保护。辩论的核心是围绕谁真正“拥有”用户产生的数据——无论是个人信息、行为模式还是数字内容——以及个人对其数据如何被使用、存储或共享拥有哪些权利。22这些不断演变的期望给微软和OpenAI等公司带来了挑战,尤其是当它们收集大量数据来训练和完善人工智能(AI)系统时。

 

 

欧盟已成为通过2018年颁布的《通用数据保护条例》(GDPR)推动更强数据权利的全球领导者。23GDPR代表了地球上最全面的数据隐私法之一,从根本上改变了公司为欧盟公民收集、处理和存储个人数据的方式。它授予个人对其数据的更大控制权,包括访问、更正或删除其信息的权利,以及被告知如何使用其数据的权利。GDPR对不遵守规定的行为实施严格处罚,罚款最高可达公司全球年收入的4%,为公司遵守透明度、问责制和用户控制原则创造了强大动力。对于像微软这样在全球范围内运营的公司来说,GDPR提高了数据道德的风险。

 

在美国,数据隐私法传统上没有欧盟那么严格,没有类似于GDPR的全面的联邦数据隐私法。然而,这一格局正在发生变化。各国已开始采用自己的数据保护法规,这反映出人们越来越认识到隐私保护的必要性。以加州为例,2020年制定了《加州消费者隐私法》(CCPA),24赋予居民与GDPR下的居民类似的权利,例如有权知道正在收集哪些个人信息,有权删除这些信息,以及有权选择不出售这些信息。

 

数据隐私运动在其他州的势头也在增强,这造成了州一级法规的拼凑,微软等公司必须驾驭这些法规。这些围绕数据隐私的新期望表明,公众对数据所有权的态度发生了转变,美国人越来越多地要求有权控制他们的数字信息。

 


22https://www2.deloitte.com/us/en/insights/topics/digital-transformation/data-ownership-protection-privacy-issues.html

23https://gdpr-info.eU/

24https://oag.ca.gov/privacy/ccpa


5


 

《纽约时报》针对微软和OpenAI提起的上述诉讼是一个备受瞩目的例子,说明围绕数据所有权的预期变化如何与法律挑战相交。《泰晤士报》指责OpenAI在未经许可或赔偿的情况下,抓取其版权内容来训练AI模型,从而侵犯了知识产权。25如果《纽约时报》的诉讼成功,它可能会开创一个先例,对数据抓取施加更大的限制,尤其是当它涉及专有或受版权保护的内容时。这将创造

微软和OpenAI面临的额外障碍,迫使它们要么获得数据源的许可,要么重新考虑自己的数据集。

 

通过继续目前的做法,微软可能会卷入更多的诉讼和监管行动,这些诉讼和监管行动可能会侵蚀股东价值并损害其声誉。此外,随着消费者越来越注重隐私,他们可能会选择支持那些表现出尊重数据权利的真正承诺的公司。

 

通过隐私领导提升股东价值,构建竞争优势

 

消费者一直对他们对个人数据缺乏控制表示担忧。26麦肯锡公司认为,优先考虑数据隐私的公司将比不这样做的竞争对手建立竞争优势。27

 

随着消费者在共享数据方面变得更加谨慎,以及监管机构提高了隐私要求,领先的公司正在了解到,数据保护和隐私可以创造商业优势。

 

鉴于总体信任度较低,消费者通常希望限制他们与企业共享的数据类型也就不足为奇了。由于现在可用的许多隐私工具,包括内置cookie拦截器的网页浏览器、广告拦截软件(在全球超过6亿台设备上使用)和隐姓埋名的浏览器(全球超过40%的互联网用户使用),消费者对其个人信息有了更大的控制权。然而,如果一项产品或服务——例如医疗保健或资金管理——对消费者至关重要,许多人愿意抛开他们的隐私问题。

 


25https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html

26https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/

27https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/the-consumer-data-opportunity-and-the-privacy-important


6


消费者不愿意为他们认为不那么重要的交易分享数据。他们甚至可能“用脚投票”,放弃与那些他们不信任、不认同或不了解数据隐私做法的公司开展业务。

 

作者补充道:

 

我们的研究表明,我们的消费者样本根本不相信公司会处理他们的数据并保护他们的隐私。因此,公司可以通过在这一领域采取深思熟虑的积极措施来实现差异化。根据我们的经验,消费者会对那些像对待自己一样谨慎对待个人数据的公司做出回应。

 

这份报告让人们明白了这样一个现实:随着数据隐私问题的增加,消费者越来越青睐那些优先考虑道德数据处理和透明度的公司。这突显出这样一个现实,即拥有透明、以隐私为重点的做法的公司在信任至上的市场中具有战略优势。

 

围绕数据所有权的预期转变为微软提供了一个机会,通过采用透明和同意驱动的数据实践,将自己定位为道德人工智能领域的领导者。这样的转变不仅将帮助微软避免法律挑战,还将建立消费者信任,使该公司与优先考虑个人控制自己数据权利的全球标准保持一致。

 

对微软来说,这意味着透明和尊重隐私的人工智能实践可以培养客户忠诚度并减少客户流失。留住客户的经济利益是有据可查的,因为留住现有客户通常比获得新客户的成本要低得多。

 

此外,以隐私为中心的方法符合日益增长的“技术乐观主义”运动,该运动倡导技术赋予个人权力,而不是利用他们。这场运动的拥护者,比如风险投资家Marc Andreessen,28主张技术应该分散权力,增强透明度,并赋予用户权力。通过支持这些价值观,微软可以吸引越来越多的用户,他们将技术视为个人赋权的工具,而不是企业控制权。这种一致性不仅会吸引消费者,还会影响公众的认知,将微软定位为道德AI领域的领导者。

 

最后,对隐私和透明度的强调可能会降低微软在监管反弹和法律问题上的脆弱性。随着全球范围内出现更严格的数据隐私法规,以及《纽约时报》对OpenAI的诉讼等案例凸显了不道德数据做法的风险,微软可以通过为透明度设定高标准来先发制人地降低风险。

 

微软的竞争对手,包括苹果、Meta、Alphabet和Anthropic,在隐私方面的做法差异很大,反映了他们的价值观、商业模式和战略目标。


28https://a16z.com/the-techno-optimist-manifesto/


7


了解每家公司如何处理隐私,可以洞悉人工智能伦理、透明度和消费者信任的更广阔前景。

 

苹果

 

苹果虽然主要不专注于人工智能,但已强调其用户隐私保护是优先事项。29与Meta和Alphabet不同,苹果的主要商业模式不依赖于广告,这使得它能够在不损害其收入模式的情况下增强用户隐私。苹果表示,其人工智能驱动的产品,如Siri,在设计时采用了增强隐私的技术,包括设备上的处理,这可以最大限度地减少数据收集,并促进用户对个人信息的控制。

 

 

苹果对隐私的重视为注重隐私的消费者提供了额外程度的保障,使其能够保持忠诚的用户群,从而使该公司具有竞争优势。

 

 

Meta在数据隐私问题上面临审查,特别是在用户数据如何告知有针对性的广告算法方面。30 31然而,近年来,Meta在提高其人工智能研究的透明度方面取得了长足进展。其发布的开源Llama AI工具证明了其新的方向,表明愿意为透明和可访问的AI开发做出贡献。开源AI模型,如Llama,允许研究人员和开发人员检查和修改代码,增加透明度。

 

尽管发生了这种开源转变,但由于Meta依赖用户数据获得广告收入,隐私问题仍然存在。Meta的AI算法广泛利用个人数据来生成定向广告,32这引发了人们对开源承诺是否会扩展到该公司最有价值和最敏感的数据驱动算法的担忧。Meta近年来面临的公众监督,包括剑桥分析公司丑闻,33也影响了信任。尽管开源Llama可能预示着更大的透明度,但关于Meta的隐私改进是否走得足够远的问题仍然存在。


29https://www.cnbc.com/2021/06/07/apple-is-turning-privacy-into-a-business-advantage.html

30https://www.theguardian.com/technology/2023/jul/11/threads-app-privacy-user-data-meta-policy

31https://www.nytimes.com/2023/05/22/business/meta-facebook-eu-privacy-fine.html

32https://www.reuters.com/technology/meta-gets-11-eu-complaints-over-use-personal-data-train-ai-models-2024-06-06/

33https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html


8


 

字母表

 

Alphabet通过子公司谷歌,在人工智能领域占据了强大的地位,利用庞大的数据资源为搜索引擎和语音助手等服务提供燃料。34然而,其与广告收入密切相关的数据做法因将用户数据收集置于隐私之上而受到了一致的批评。35Alphabet对定向广告的广泛数据跟踪一再引发隐私担忧,导致巨额罚款,尤其是根据欧盟的GDPR,原因是数据使用缺乏透明度。尽管实现了“自动删除”选项等功能,并尝试了联邦学习,数据存储在设备上,而不是集中的数据库,但这些措施的范围有限,看起来是被动的,而不是基础性的。

 

即使在位置服务关闭的情况下,Alphabet的声誉也因跟踪用户位置数据等事件而进一步受损,36凸显其公共隐私承诺与现实世界实践之间的不一致。批评人士认为,Alphabet将用户隐私视为其广告驱动业务的次要因素,这与苹果等优先考虑数据最小化的公司形成鲜明对比。随着隐私期望的增长,Alphabet对广泛数据收集的依赖可能与消费者对透明度和数据主权的要求越来越冲突,最终挑战了其方法的可持续性。

 

人类学

 

Anthropic是一家由OpenAI前员工创立的AI研究实验室,它将自己定位为一家致力于“对齐”和AI安全的公司。其主要任务是开发符合人类利益的人工智能系统,将安全和道德优先于快速部署。37尽管与微软、Meta或Alphabet相比,Anthropic规模较小,但其对长期AI安全的关注使其成为隐私对话中的相关参与者。38

 

Anthropic强调AI行为的透明度,并对在没有严格测试的情况下将其模型部署到商业应用中持谨慎态度。虽然Anthropic的方法并没有像微软或Meta那样具体优先考虑隐私,但它对安全性、一致性和道德问题的强调间接支持了一个注重隐私的框架。通过促进部署的透明度和谨慎性,Anthropic将自己定位为一家愿意为负责任、以用户为中心的AI实践牺牲快速增长的组织。

 

鉴于Anthropic仍相对较新,它尚未遇到重大的监管或公众审查。然而,其基本原则表明了对道德实践的承诺,随着隐私期望的演变,这可能会提供竞争优势。

 

微软、Meta、Alphabet、Anthropic和苹果对隐私的处理方式各不相同,反映了各自不同的商业模式和消费者期望。微软和苹果将隐私宣传为竞争优势,而Alphabet和Meta则因依赖


34https://www.thestreet.com/investing/stocks/analyst-update-alphabet-stock-price-target-after-ai-event

35https://www.bloomberg.com/news/articles/2022-02-28/all-the-ways-google-is-coming-under-fire-over-privacy-quicktake

36https://time.com/6209991/apps-collecting-personal-data/

37https://www.anthropic.com/

38https://etc.cuit.columbia.edu/news/ai-community-practice-hosts-anthropic-explore-claude-ai-enterprise


9


广告收入。Anthropic对长期安全和伦理一致性的关注将其定位为隐私对话中的独特参与者,尤其是在人工智能不断发展的情况下。随着消费者对隐私需求的增长,这些不同的方法将塑造公众对每家公司对负责任的人工智能承诺的看法。

 

出于这样或那样的原因,微软的每一个竞争对手都有障碍,阻止他们在AI行业中作为质量和隐私方面的领导者占据主导地位。采取强有力的、以隐私为中心的立场可能会使微软有别于竞争对手,并使其与现代价值观保持一致,从而加强消费者信任和股东价值。

 

对微软来说,经济利益可能是巨大的。单是纽约时报的诉讼就可能达到数十亿美元,对违反GDPR或CCPA的处罚也可能如此。然而,更重要的问题是,到2032年,生成AI市场可能达到1.3万亿美元,39而市场份额的微小百分比变化将价值百亿美元。微软的竞争太激烈了,潜在的奖励给了大公司,不能把数据道德和隐私当回事。

 

结论

 

通过优先考虑隐私和道德AI,微软可以在消费者信任至关重要的行业中脱颖而出。随着监管压力越来越大,公众的期望转向数据透明和控制,微软对负责任的人工智能的承诺不仅将维护其声誉,还将提升股东价值。采用隐私优先的方法将微软定位为道德技术的领导者,使其与消费者和社会价值观保持一致。这一战略转变可以帮助微软获得可持续的竞争优势,促进长期增长,并对整个行业产生积极影响。基于这些原因,我们促请股东支持议案9。40

 

 

图片来源:

Page 2 – Microsoft Building,Cologne,Germany/Rawpixel.com(Creative Commons)

第3页– Paul Nakasone/INSA Events,Creative Commons

Page 5 – OpenAI graphic/focal5,Creative Commons

Page 6 – New York Times headquarters/Jessohackberry,Creative Commons

第8页– iPhone/YouTube抢屏

 

上述信息可通过电话、美国邮件、电子邮件、某些网站和某些社交媒体场所向股东传播,不应被解释为投资建议或作为对您的代理进行投票的授权征集。

 


39https://www.bloomberg.com/company/press/generative-ai-to-become-a-1-3-trillion-market-by-2032-research-finds/

40https://view.officeapps.live.com/op/view.aspx?src=https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/2024_proxy_statement


10


向股东传播上述信息的成本完全由提交人承担。

 

此处包含的信息是从被认为可靠的来源准备的,但美国不保证其及时性或准确性,也不是所有可用数据的完整摘要或陈述。本文仅供参考,不应被解释为研究报告。

 

代理卡将不被美国接受。请不要把你的代理寄给我们。要投票给您的代理,请按照您的代理卡上的说明进行。

 

有关微软公司提案9 –要求董事会制作一份由国家法律和政策中心提交的“关于AI数据来源问责制的报告”的问题–请通过邮箱lperlot @ nlpc.org联系NLPC企业诚信项目副总监Luke Perlot。


11