查看原文
免责申明:同花顺翻译提供中文译文,我们力求但不保证数据的完全准确,翻译内容仅供参考!
PX14A6G 1 nlpc _ px14a6g.htm 国家法律和政策中心-PX14A6G

美国证券交易委员会

华盛顿特区20549

 

 

豁免征求意见通知书
根据细则14a-103

 

注册人名称:亚马逊公司

依赖豁免人员姓名:国家法律政策中心

依赖豁免人士地址:107 Park Washington Court,Falls Church,VA 22046

 

根据1934年《证券交易法》颁布的规则14a-6(g)(1)提交书面材料。该通知的申报人在注册人公司中实益拥有的证券不超过500万美元。根据规则条款,该申报人不需要提交,但为了公开披露和考虑这些重要问题而自愿提交。

 

 

 

 

代理备忘录

 

TO:亚马逊公司的股东

RE:关于对2025年代理投票项目11进行投票的案例(“关于AI产品中数据使用监督的报告”)

 

这不是征求授权投票给你的代理人。请不要将您的代理卡寄给我们;国家法律政策中心无法对您的代理进行投票,本通讯也不考虑这样的事件。NLPC敦促股东按照管理层代理邮寄的指示投票支持第11项。

 

以下信息不应被解释为投资建议。

 

照片学分随后在报告的末尾。


1


国家法律和政策中心(“NLPC”)敦促股东投票支持第11项,1它在亚马逊公司(“亚马逊”或“公司”)的2025年代理投票中作为赞助商。该提案的“已解决”条款指出:

 

股东要求公司以合理的成本编制一份报告,省略专有或法律特权信息,在年会后一年内发布,此后每年更新一次,其中评估在其人工智能产品的开发和培训中真实或潜在的不道德或不当使用外部数据对公司运营和财务以及对公共福利的风险;公司采取了哪些步骤来降低这些风险;以及如何衡量这些努力的有效性。

 

简介

 

人工智能(AI)是现代经济史上最具变革性的创新之一——重塑行业、革新商业实践,并影响个人和政府如何与技术互动。人工智能在改善从医疗保健到金融服务的所有方面的潜力是不可否认的——其风险也是如此。亚马逊凭借其大量的人工智能举措,正处于一个关键时刻,采取强有力的以隐私为中心的政策可能会使其成为值得信赖的领导者。

 

 

数据是人工智能的命脉。机器学习模型需要海量数据集来学习、适应并随着时间的推移提高其性能。然而,这种对数据的渴望驱使开发者从互联网和其他数字来源中寻找大量信息,其中一些信息可能无法从道德或法律上获得。AI模型可能会包含有关人类行为、语音、图像和其他敏感内容的数据,这使得它们的开发和部署成为隐私问题。

 

随着人工智能的成熟,公众对相关数据伦理的认识也在不断提高。消费者、监管机构和政府越来越多地提出棘手的问题,即开发商从哪里获得用于训练模型的数据。数据抓取、未经授权的数据收集,以及未经许可使用专有或版权内容,成为AI伦理争论的焦点。在没有适当监督的情况下,人工智能开发可能违反数据隐私法、侵犯知识产权或未经同意使用个人信息。

 

提案中要求的报告将通过更多地披露亚马逊在人工智能开发中以道德方式使用用户数据的战略来增加股东价值。这份报告鼓励


1亚马逊。“2025年年度股东大会通知&委托书。”项目11从第56页开始。见https://www.sec.gov/archives/edgar/data/1018724/000110465925033442/tm252295-1_def14a.htm


2


亚马逊将采取支持隐私的立场,这可能会为该公司提供强大的竞争优势,以对抗其AI竞争对手。

 

亚马逊在AI发展中面临的隐私和道德挑战

 

作为全球最大的科技公司之一,亚马逊是人工智能领域的领先企业。该公司的立场为定义对负责任的人工智能发展的期望提供了一个平台。

 

在微软、Alphabet和Meta等主要科技竞争对手追求快速推出面向消费者的生成AI产品的同时,2亚马逊选择了一条不同的道路。尽管该公司对第三方人工智能开发商进行了大量投资,包括生产Claude 3的Anthropic3– OpenAI的ChatGPT的领先替代方案–它没有为消费者自己开发任何生成性AI产品。相反,亚马逊将其人工智能开发的重点放在了内部增强和企业解决方案上。

 

 

然而,亚马逊在数据隐私做法方面存在问题的历史应该引起股东和消费者的关注。由于亚马逊的人工智能举措主要是为内部运营和企业客户而非普通消费者市场设计的,因此任何与数据隐私或数据滥用相关的潜在道德违规行为都可能在公众视野中被掩盖。与推出面向公众的人工智能产品的竞争对手不同——从而将自己暴露在直接的消费者审查和外部审计之下——亚马逊的人工智能应用程序主要在运营

闭门造车。因此,有问题的数据做法、嵌入算法中的不经意的偏见,甚至是故意的数据管理不善,都可能在很长一段时间内持续存在而未被发现。这种缺乏透明度带来了重大风险,因为它减少了问责制并减少了维护道德数据标准的外部压力。因此,股东应该要求提高对亚马逊内部数据实践的可见度,以确保该公司的人工智能部署遵守稳健的道德标准,从而防范可能危及亚马逊长期声誉和财务稳定性的隐性负债。

 

鉴于信任在数字平台上的重要作用以及潜在的缺乏问责制,该公司过去未能保护敏感的消费者数据增加了声誉受损和政府审查的风险。股东们应该认识到这些担忧是实质性的,因为对数据道德的不充分关注可能会损害亚马逊的长期竞争力


2麦肯锡公司。“什么是生成性人工智能?”2024年4月2日。见https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-generative-ai

3努涅斯,迈克尔。VentureBeat,2024年11月22日,“亚马逊在Anthropic上加倍努力,将自己定位为AI军备竞赛的关键参与者。”见https://venturebeat.com/ai/amazon-doubles-down-on-anthropic-positioning-itself-as-a-key-player-in-the-ai-arms-race/


3


定位AI,侵蚀消费者和企业信任,损害公司市场估值。

 

亚马逊的组织规模、范围和影响力——该公司是全球市值最大的公司之一,4收入,5和人数6–招致不信任。亚马逊与该行业其他实力参与者以及联邦政府的关系进一步放大了公众的关注。比如,想想亚马逊在不当处理消费者个人信息方面令人不安的历史。据独立学术研究揭示,亚马逊为何据称与数十家第三方广告合作伙伴共享敏感的Alexa语音数据?这些有问题的做法理所当然地引发了广泛的隐私问题,并引起了监管机构和消费者权益倡导者的审查,使人们对该公司对道德数据管理的承诺产生了怀疑。7

 

与此同时,亚马逊在人工智能领域的数据伦理方法引发了重大担忧。此外,亚马逊的企业生成AI助手,被称为Q,在预览发布期间泄露了机密数据,引发了对亚马逊内部数据治理实践的警惕。8 9 10

 

这些例子凸显了亚马逊与政府和情报机构密切联系的更广泛问题,这些问题加剧了对隐私的担忧。亚马逊网络服务(AWS)是亚马逊收入的主要贡献者,它与美国政府签订了大量合同——包括为情报机构提供关键基础设施托管服务11和五角大楼。12这些实质性的合作可能会将亚马逊的商业和政府利益交织在一起。因此,股东们应该质疑,亚马逊广泛的政府合同是否可能被用于影响该公司的人工智能发展战略或损害用户隐私。随着政府对塑造数字信息流的兴趣日益浓厚,尤其是通过人工智能驱动的平台,亚马逊强大的人工智能工具可能会受到旨在控制或调节公共话语的机构的影响,这一风险增加了。股东们必须对这些影响保持警惕,因为它们可能会显着影响消费者的信任,进而影响亚马逊的市场估值。

 


4公司市值。“按市值计算的最大公司。”见https://companiesmarketcap.com/

5公司市值。“按收入排名的公司。”见https://companiesmarketcap.com/largest-companies-by-revenue/

6公司市值。“按员工人数排名的公司。”见https://companiesmarketcap.com/largest-companies-by-number-of-employees/

7克努特松,库尔特。“Alexa是在偷偷听你的私人谈话吗?”福克斯新闻,2023年9月11日。见https://www.foxnews.com/tech/alexa-secretly-listening-private-conversations

8AWS。“Amazon Q – Generative AI Assistant,”Amazon.com。见https://aws.amazon.com/q/

9瓦拉纳西,拉克希米。“亚马逊的AI聊天机器人Q可能正处于心理健康危机的阵痛中,”《商业内幕》称。见https://www.businessinsider.com/amazon-ai-chatbot-q-hallucinations-2023-12

10牛顿,凯西;希弗,佐伊。“亚马逊的Q存在‘严重幻觉’,员工警告称,会在公共预览中泄露机密数据,”Platformer,2023年12月1日。见https://www.platformer.news/amazons-q-has-severe-hallucinations/

11康克尔,弗兰克。“美国国家安全局重新向亚马逊秘密授予100亿美元合同,”NextGov,2022年4月27日。见https://www.nextgov.com/emerging-tech/2022/04/nsa-re-awards-secret-10-billion-contract-amazon/366184/

12康克尔,弗兰克。“十年前的风险导致了AWS和英特尔社区之间的‘现象级伙伴关系’,”NextGov,2024年12月13日。见https://www.nextgov.com/acquisition/2024/12/decades-old-risk-led-phenomenal-partnership-between-aws-and-intel-community/401649/


4


亚马逊的巨大权力,加上它与联邦政府的密切关系,对美国社会的个人自由构成了重大威胁。两者结合起来,通过亚马逊的平台、产品和服务,前所未有地获得了数百万公民的个人信息。在大数据时代,个人信息越来越多地被视为一种商品,亚马逊和政府之间的这种关系引发了关于潜力的危险信号

 

用于大规模监视和侵犯隐私。这些技术被用作控制工具的潜力——无论是用于监测异议、限制言论自由,还是追踪公民——都不能被忽视。在这种背景下,亚马逊的人工智能发展不仅仅是关于技术进步;它是关于一家公司手中的监控权力不受限制地增长,该公司已经表现出与政府利益保持一致的意愿,即使是以个人自由的潜在代价为代价。

 

此外,亚马逊对为其AI系统提供动力的算法进行保密。随着这些技术越来越多地嵌入个人和专业领域——从产品推荐、员工评估到与虚拟助手的互动——围绕其内部决策机制的不透明构成了重大的道德挑战。机器学习模型是亚马逊人工智能计划的基础,它依赖大量数据来识别模式、预测用户行为并推动运营决策。然而,亚马逊的算法如何对信息进行优先排序、确定结果并得出具体结论,仍然隐藏在专有的“黑匣子”中。这种保密超越了单纯的技术保护。它还引入了与透明度、信任和公平相关的更深层次的担忧。如果亚马逊的算法指导刑事司法风险评估等关键决策,13甚至与医疗保健相关的建议14通过Alexa等设备,缺乏清晰度可能会导致有偏见或错误的结果,并带来严重的现实后果。对亚马逊来说,保护这些专有算法可能会保留竞争优势,但股东应该质疑该公司是否充分平衡了盈利动机与透明度、问责制和消费者保护的迫切需求。

 

对此,市民和消费者开始要求加强对数据隐私的保护。辩论的核心是围绕谁真正“拥有”用户产生的数据——无论是个人信息、行为模式还是数字内容——以及个人对其数据如何被使用、存储或共享拥有哪些权利。15这些不断演变的期望创造了新的


13刑事司法委员会。“人工智能对刑事司法的影响。”见https://counciloncj.org/the-implications-of-ai-for-criminal-justice/

14AWS。“医疗保健和生命科学领域的生成人工智能,”亚马逊网站。见https://aws.amazon.com/health/gen-ai/

15埃文斯-格林伍德,彼得。桑德斯,迪恩。汉森,罗布。“数字数据的新叙事”,德勤洞察,2023年3月22日。见https://www2.deloitte.com/us/en/insights/topics/digital-transformation/data-ownership-protection-privacy-issues.html


5


像亚马逊这样的公司面临挑战,尤其是在它们收集大量数据来训练和完善人工智能系统的时候。

 

欧盟已成为通过2018年生效的《通用数据保护条例》(GDPR)推动更强数据权利的全球领导者。16GDPR代表了全球最全面的数据隐私法之一,从根本上改变了公司为欧盟公民收集、处理和存储个人数据的方式。它授予个人对其数据的更大控制权,包括访问、更正或删除其信息的权利,以及被告知其数据如何被使用的权利。GDPR对违规行为实施严格处罚,罚款最高可达企业全球年收入的4%,为企业坚持透明度、问责制和用户控制原则创造了强大动力。对于像亚马逊这样在全球范围内运营的公司来说,GDPR提高了数据道德的风险。

 

在美国,数据隐私法传统上没有欧盟那么严格,没有类似于GDPR的全面的联邦数据隐私法。然而,随着各州开始采用自己的数据保护法规,这种情况正在发生变化,这反映出人们越来越认识到隐私保护的必要性。以加州为例,2020年制定了《加州消费者隐私法》(CCPA),17赋予居民与GDPR下的居民类似的权利,例如有权知道正在收集哪些个人信息,有权删除这些信息,以及有权选择不出售这些信息。

 

数据隐私运动在其他州也逐渐获得势头,形成了亚马逊这样的大公司必须驾驭的州级法规拼凑而成。这些围绕数据隐私的新期望表明,公众对数据所有权的态度发生了转变,美国人越来越多地要求有权控制他们的数字信息。

 

通过继续目前的做法,亚马逊有可能陷入诉讼和监管行动,这些诉讼和监管行动可能会侵蚀股东价值并损害其声誉。此外,随着消费者越来越注重隐私,他们可能会选择支持那些表现出尊重数据权利的真正承诺的公司。

 

 

 

 

 

 

 

 

 

 

 


16英特软件咨询。“通用数据保护条例。”见https://gdpr-info.eU/

17加利福尼亚州司法部。“加州消费者隐私法案(CCPA)”,2024年3月13日。见https://oag.ca.gov/privacy/ccpa


6


通过隐私领导提升股东价值,构建竞争优势

 

消费者一直对他们对个人数据缺乏控制表示担忧。18麦肯锡公司认为,优先考虑数据隐私的公司将比不这样做的竞争对手建立竞争优势。19

 

“随着消费者在分享数据时变得更加小心,监管机构提高了隐私要求,领先的公司正在了解到,数据保护和隐私可以创造商业优势。

 

鉴于总体信任度较低,消费者通常希望限制他们与企业共享的数据类型也就不足为奇了。由于现在可用的许多隐私工具,包括内置cookie拦截器的网页浏览器、广告拦截软件(在全球超过6亿台设备上使用)和隐身浏览器(全球超过40%的互联网用户使用),消费者可以更好地控制自己的个人信息。然而,如果一项产品或服务——例如医疗保健或资金管理——对消费者至关重要,许多人愿意抛开他们的隐私问题。

 

消费者不愿意为他们认为不那么重要的交易分享数据。他们甚至可能“用脚投票”,放弃与那些他们不信任、不认同或不了解数据隐私做法的公司开展业务。”

 

作者补充道:

 

“我们的研究表明,我们的消费者样本根本不相信公司会处理他们的数据并保护他们的隐私。因此,公司可以通过在这一领域采取深思熟虑的积极措施来实现差异化。根据我们的经验,消费者会对那些像对待自己一样谨慎对待个人数据的公司做出回应。”

 

该报告让人们明白了这样一个现实:随着数据隐私问题的增加,消费者越来越青睐那些优先考虑道德数据处理和透明度的公司。这突显出这样一个现实,即拥有透明、以隐私为重点的做法的公司在信任至上的市场中具有战略优势。

 


18安德森,莫妮卡;奥西耶,布鲁克;库马尔,马杜;佩兰,安德鲁;雷尼,李;特纳,埃里卡。“美国人与隐私:对自己的个人信息感到担忧、困惑和感觉缺乏控制”,皮尤研究中心,2019年11月15日。见

https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/

19阿南特,文基;唐恰克,莉萨;卡普兰,詹姆斯;索勒,亨宁。“消费者-数据的机会和隐私的必要性”,麦肯锡公司,2020年4月27日。见https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/the-consumer-data-opportunity-and-the-privacy-important


7


围绕数据所有权的预期转变为亚马逊提供了一个机会,通过采用透明和同意驱动的数据实践,将自己定位为道德人工智能领域的领导者。这样的转变不仅将帮助亚马逊避免法律挑战,还将建立消费者信任,使该公司与优先考虑个人控制自己数据权利的全球标准保持一致。

 

对亚马逊来说,这意味着透明和尊重隐私的人工智能实践可以培养客户忠诚度并减少客户流失。留住客户的经济利益是有据可查的,因为留住现有客户通常比获得新客户的成本要低得多。

 

此外,以隐私为中心的方法符合日益增长的“技术乐观主义”运动,该运动倡导技术赋予个人权力,而不是利用他们。这场运动的拥护者,比如风险投资家Marc Andreessen, 20主张技术应该分散权力,增强透明度,并赋予用户权力。通过支持这些价值观,亚马逊可以吸引越来越多的用户,他们将技术视为个人赋权的工具,而不是企业控制权。这种结盟不仅会吸引消费者,还会影响公众的看法,将亚马逊定位为道德人工智能领域的领导者。

 

 

最后,对隐私和透明度的强调可能会降低亚马逊在监管反弹和法律问题上的脆弱性。随着全球范围内出现更严格的数据隐私法规,以及像《纽约时报》对OpenAI的诉讼这样的案例凸显了不道德数据做法的风险,亚马逊可以通过为透明度设定高标准来先发制人地降低风险。

 

亚马逊的竞争对手,包括微软、苹果、Meta和Alphabet,在处理隐私的方式上差异很大,反映出他们

价值观、商业模式、战略目标。了解每家公司如何处理隐私,可以深入了解人工智能伦理、透明度和消费者信任的更广阔领域。

 

微软

 

微软是人工智能领域的主要参与者,这主要归功于它与OpenAI的合作。然而,这种关系引发了对不道德数据做法的担忧,包括数据抓取以及未经同意使用个人和专有信息的指控。这些问题导致了诉讼,例如《纽约时报》提起的诉讼,并引发了对微软人工智能发展的道德基础的质疑。

 

此外,微软与政府签订的大量合同,通常涉及敏感技术,因可能将该公司的人工智能计划与


20安德森·霍洛维茨。“技术乐观主义宣言。”见https://a16z.com/the-techno-optimist-manifesto/


8


国家利益。21 22 23 24这引发了人们对其隐私和独立监督承诺的怀疑。

 

虽然微软强调负责任的人工智能,但它的算法通常是“黑匣子”,几乎没有提供数据使用或决策过程的透明度。加强隐私措施并与GDPR等全球标准保持一致可能有助于重建信任,但目前的做法凸显了加强问责制的必要性。

 

苹果

 

苹果虽然不仅仅专注于人工智能,但已经成功地将自己打造成了一家隐私至上的公司。25与Meta和Alphabet不同,苹果的商业模式不依赖于广告,这使得它可以在不影响收入的情况下优先考虑用户隐私。苹果的AI驱动产品,如Siri,在设计时采用了增强隐私的技术,包括设备上的处理,最大限度地减少了数据收集,并促进了用户对个人信息的控制。

 

苹果广泛的隐私功能让该公司将自己推销为大型科技平台中最注重隐私的一家。然而,它将侵犯隐私的行为外包给了竞争对手,比如与谷歌的大规模搜索交易,谷歌也有侵犯隐私的历史。26苹果最近与OpenAI达成了类似的交易。27这一策略允许苹果维护隐私的门面,同时给予其他公司收集苹果客户数据的特权。

 

 

Meta历来面临数据隐私问题的审查,特别是在如何使用用户数据为目标广告算法提供信息方面。28 29然而,近年来,Meta在提高其人工智能研究的透明度方面取得了长足进展。其发布的开源Llama AI工具证明了其新方向,表明愿意为


21戈尔茨坦,卢克。“国防部屈服于微软的获利回吐,”美国前景,2024年6月11日。见https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/

22计算机与通信行业协会。“新研究显示,微软在美国公共部门生产力软件领域占据85%的市场份额。”见https://ccianet.org/news/2021/09/new-study-shows-microsoft-holds-85-market-share-in-u-s-public-sector-productivity-software/

23比德尔,山姆。“美国军方首次确认为作战部队购买OpenAI,”截击,2024年10月25日。见https://theintercept.com/2024/10/25/africom-microsoft-openai-military/

24海斯,安吉。“生成性人工智能与公共部门,”微软。见https://wwps.microsoft.com/blog/ai-public-sector

25莱斯温,基夫。“苹果正在将隐私变成一种商业优势,而不仅仅是一种营销口号,”CNBC,2021年6月7日。见https://www.cnbc.com/2021/06/07/apple-is-turning-privacy-into-a-business-advantage.html

26皮尔斯,大卫。“据报道,谷歌每年支付180亿美元成为苹果的默认搜索引擎,”The Verge,2023年10月26日。见https://www.theverge.com/2023/10/26/23933206/google-apple-search-deal-safari-18-billion

27OpenAI。“OpenAI和苹果宣布建立合作伙伴关系,将ChatGPT集成到苹果体验中。”见https://openai.com/index/openai-and-apple-announce-partnership/

28Bhuiyan,Johana。“随着Threads应用程序蓬勃发展,专家警告Meta的一系列侵犯隐私行为,”《卫报》,2023年7月11日。见https://www.theguardian.com/technology/2023/jul/11/threads-app-privacy-user-data-meta-policy

29萨塔里亚诺,亚当。“Meta因违反欧盟数据隐私规则被罚款13亿美元,”纽约时报,2023年5月22日。见https://www.nytimes.com/2023/05/22/business/meta-facebook-eu-privacy-fine.html


9


透明且可访问的AI开发。30开源AI模型,如Llama,允许研究人员和开发人员检查和修改代码,增加透明度。

 

然而,尽管发生了这种开源转变,但由于Meta依赖用户数据获得广告收入,隐私问题仍然存在。Meta的AI算法广泛利用个人数据来生成定向广告,31这引发了人们对开源承诺是否会扩展到该公司最有价值和最敏感的数据驱动算法的担忧。Meta近年来面临的公众监督,包括剑桥分析公司丑闻,32也影响了信任,尽管开源Llama可能预示着更大的透明度,但关于Meta的隐私改进是否足够远的问题仍然存在。

 

字母表

 

Alphabet通过谷歌,在人工智能领域占据着强大的地位,利用庞大的数据资源为搜索引擎和语音助手等服务提供燃料。33然而,其与广告收入密切相关的数据做法因将用户数据收集置于隐私之上而受到了一致的批评。34Alphabet对定向广告的广泛数据跟踪一再引发隐私担忧,导致巨额罚款,尤其是根据欧盟的GDPR,原因是数据使用缺乏透明度。尽管实现了“自动删除”选项等功能,并尝试了联邦学习——数据存储在设备上,而不是集中的数据库——但这些措施的范围有限,看起来是被动的,而不是基础性的。

 

即使在位置服务关闭的情况下,Alphabet的声誉也因跟踪用户位置数据等事件而进一步受损,35凸显其公共隐私承诺与现实世界实践之间的不一致。批评人士认为,Alphabet将用户隐私视为其广告驱动业务的次要因素,这与苹果等优先考虑数据最小化的公司形成鲜明对比。随着隐私期望的增长,Alphabet对广泛数据收集的依赖可能会越来越多地与消费者对透明度和数据主权的要求发生冲突,最终挑战其方法的可持续性。

 

 

 

 


30罗比森,凯莉。“根据新的OSI定义,开源AI必须揭示其训练数据,”The Verge,2024年10月28日。见https://www.theverge.com/2024/10/28/24281820/open-source-initiative-definition-artificial-intelligence-meta-llama

31Chee,Foo Yun。“Meta在欧盟面临呼吁,不要将个人数据用于人工智能模型,”路透社,2024年6月6日。见https://www.reuters.com/technology/meta-gets-11-eu-complaints-over-use-personal-data-train-ai-models-2024-06-06/

32忏悔者,尼古拉斯。“Cambridge Analytica和Facebook:迄今为止的丑闻和后果”,《纽约时报》,2018年4月4日。见https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html

33陈,思琳。“人工智能事件后,分析师更新Alphabet股价目标,”华尔街日报,2024年9月26日。见https://www.thestreet.com/investing/stocks/analyst-update-alphabet-stock-price-target-after-ai-event

34纳亚克,马拉地语。“谷歌因隐私问题受到抨击的所有方式:QuickTake,”彭博社,2022年2月28日。见https://www.bloomberg.com/news/articles/2022-02-28/all-the-ways-google-is-coming-under-fire-over-privacy-quicktake

35福塞尔,西德尼。“关于跟踪你的位置的应用程序,最重要的事情要知道”,时间,2022年9月1日。见https://time.com/6209991/apps-collecting-personal-data/


10


结论

 

通过优先考虑隐私和道德AI,亚马逊可以在消费者信任至关重要的行业中脱颖而出。随着监管压力越来越大,公众的期望转向数据透明度和控制,亚马逊对负责任的人工智能的承诺不仅将维护其声誉,还将提升股东价值。采用隐私优先的方法将亚马逊定位为道德技术的领导者,使其与消费者和社会价值观保持一致。这一战略转变可以帮助亚马逊获得可持续的竞争优势,促进长期增长,并对整个行业产生积极影响。

 

因此,我们敦促我们的其他股东在2025年5月21日的亚马逊年度会议上投票支持第11项。

 

图片来源:

Page 2 – MikeMac Marketing/Creative Commons

Page 3 – Visual Content/Creative Commons

Page 5 – MikeMac Marketing/Creative Commons

第8页– ShanMcG213/Creative Commons

 

上述信息可通过电话、美国邮件、电子邮件、某些网站和某些社交媒体场所向股东传播,不应被解释为投资建议或作为对您的代理进行投票的授权征集。

 

向股东传播上述信息的成本完全由提交人承担。

 

此处包含的信息是从被认为可靠的来源准备的,但美国不保证其及时性或准确性,并且不是所有可用数据的完整摘要或声明。本文仅供参考,不应被解释为研究报告。

 

代理卡将不被美国接受。请不要把你的代理寄给我们。要投票给您的代理,请按照您的代理卡上的说明进行。

 

有关亚马逊公司的问题,第11项——请董事会制作一份由国家法律和政策中心提交的“关于AI产品中数据使用监督的报告”——请通过电子邮件联系NLPC企业诚信项目副总监Luke Perlot,邮箱为lperlot @ nlpc.org。


11