查看原文
免责申明:同花顺翻译提供中文译文,我们力求但不保证数据的完全准确,翻译内容仅供参考!
PX14A6G 1 o55262px14a6g.htm

 

根据规则14a-6(g)发出的豁免征询通知

 

 

 

注册人姓名:

 

Alphabet Inc.

 

依赖豁免的人士姓名:

 

泽文资产管理有限责任公司

 

依赖豁免人士地址:

 

2 Oliver Street,Suite 806,Boston,MA 02119

 

 

 

投票支持提案# 11:股东提案,要求Alphabet发布一份报告,评估其政策、控制以及对通过谷歌服务和谷歌云处理的客户和用户数据的监督方面的差距所产生的风险。

 

 

 

所附书面材料是根据1934年《证券交易法》颁布的规则14a-6(g)(1)提交的。

 

 

 

 

 

 

这不是征求授权投票给你的代理人。

请不要寄给我们您的代理卡,因为它不会被接受。

 

   
 

 

Zevin Asset Management,LLC(“Zevin”)敦促股东投票支持第11号代理项目,这份报告评估了公司政策、控制以及对通过谷歌服务和谷歌云处理的客户和用户数据的监督方面的差距所带来的风险。该提案将在2026年6月5日Alphabet Inc(“公司”或“Alphabet”)年度股东大会上进行投票。

 

已解决:

 

股东要求董事会发布公开报告,以合理的成本编制并省略专有信息,评估Alphabet,Inc.因公司政策、控制和监督系统对通过谷歌服务和谷歌云处理的客户和用户数据存在漏洞而产生的运营、声誉、监管和法律风险。该报告应评估治理差距如何引导谷歌的产品、基础设施或云服务在政府过度扩张的情况下促进监控、审查、分析和目标定位,并建议风险缓解措施。

 

该提案要求提供有关Alphabet治理系统在高风险环境下部署谷歌云和其他数据处理产品的有效性的信息。这一请求的目的是确保股东拥有足够的信息,以确定Alphabet是否正在适当地减轻因其客户使用其产品和相关数据处理而产生的显着和重大风险。这一请求与司法管辖无关,旨在寻求一个全球框架,以解决Alphabet作为重要基础设施提供商角色中固有的系统性风险。核心问题是,当Alphabet的技术和数据被客户使用或政府行为体在敏感应用程序中访问时,它是否保留了足够的控制权、合同授权和监督机制来管理风险。这一提议得到了一群代表管理下重要资产的机构投资者的支持,这反映出人们对Alphabet的治理、合同控制以及在高风险环境下对数据和云部署的监督日益感到担忧。

 

1.Alphabet扩展到敏感应用引发突出的人权风险

Alphabet的谷歌服务和云技术是互联网通信基础设施的重要组成部分,用于支持全球数十亿人的日常生活。然而,除了纯民用之外,Alphabet还在敏感应用(例如军事、安全、边境执法)和地区(例如受冲突影响和高风险地区)提供云和人工智能(AI)服务。在这种高风险应用中,这些技术支撑着数据驱动的瞄准、监视和情报系统,这些系统最容易助长显着的人权损害。

 

这些能力越来越多地由政府部署,它们的使用可能直接影响涉及平民人口和受保护基础设施的决策,并且发生在出现重大违反国际人道主义法和人权法的指控和报告的环境中。具体而言,这些部署涉及军民两用技术,可实现大规模数据集成、模式识别以及包括作战行动在内的作战决策。最近关于高风险地区军事行动的报告记录了与不完整或过时的目标情报有关的重大平民伤害。1来自政策和国家安全专家的分析发现了目标识别和附带损害评估过程中的系统性弱点,特别是在以压缩决策时间线、依赖概率数据和前所未有的操作节奏为特征的环境中。这些情况可能会增加数据、模型输出或分析过程中的错误转化为现实世界伤害的可能性。2

 

_____________________________

1路透社,“美国可能在使用过时的目标数据后袭击了伊朗女子学校”,2026年3月11日,https://www.reuters.com/world/middle-east/us-may-have-struck-iranian-girls-school-after-using-outdated-targeting-data-2026-03-11;路透社,“美以对伊战争中有多少人丧生?”,2026年3月31日,https://www.reuters.com/world/middle-east/how-many-people-have-been-killed-us-israel-war-iran-2026-03-31。

2美国进步中心,“失去无辜者:美国对伊朗学校的打击以及对处于战争状态的美国的影响”,YouTube视频,2024年3月18日1:12:05,

 

  1
 

 

此外,在国家访问权扩张且法律追索权有限的环境中,在监视、审查和镇压中使用云和人工智能系统也会产生风险。Alphabet在这些敏感环境中的部署带来了为非法和剥削性监视做法提供便利的风险,导致对人权维护者和边缘化社区的拘留、骚扰和镇压。

 

Alphabet有高风险客户在这些敏感环境中部署其云、人工智能和其他数据处理系统,包括参与近期或正在进行的军事和移民执法行动的政府机构。这包括美国国防部的Maven项目,3美国移民和海关执法局(ICE)的行动,以及以色列政府的Nimbus项目。此外,Alphabet正在向其他高风险司法管辖区扩张,比如沙特阿拉伯——那里的法律和治理限制可能会限制Alphabet的监督。

 

例如,Alphabet被选为Project Maven的关键合作伙伴,将该公司的机器学习应用于无人机和卫星图像,从而能够自动识别物体并加速战场分析。4同样,ICE云计划已被授权通过承包商使用谷歌云服务,将Alphabet的基础设施置于国内执法和监控环境中。5独立研究表明,ICE开发了广泛的数据驱动的监控能力,包括访问用于移民执法的大规模个人数据系统,通常透明度有限或公众监督。6

 

Alphabet在Nimbus项目下向以色列政府提供云和人工智能基础设施,其中包括对政府各部和军队的支持。7这些部署将公司的技术置于高风险的运营环境中,数据处理和人工智能能力可能会支持安全、情报和运营决策。继2023年10月7日哈马斯发动袭击后,2025年7月联合国的一份报告证实,当以色列军方的内部云系统出现故障时,Nimbus项目为其提供了关键的人工智能和云基础设施。8公司内部文件进一步显示,该公司在战争期间扩大了对以色列国防部和以色列国防军的服务,以实现行政任务自动化,加强监视,并可能支持人工智能驱动的目标决策。9最后,虽然提供的基础设施也支持民用应用,但以色列军方官员盖比·波特诺伊公开表示,Nimbus项目“在其军事行动的胜利中发挥了重要作用”。10

 

_____________________________

3Scott Shane和Daisuke Wakabayashi,“‘战争的生意’:谷歌员工抗议五角大楼的工作”,纽约时报,2018年4月4日,https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html。

4国防部副部长,《建立算法战争跨职能团队(Project Maven)》,备忘录,2017年4月26日,https://dodcio.defense.gov/Portals/0/Documents/Project%20Maven%20DSD%20Memo%2020170425.pdf。

5Allison McDonald等人,“American Dragnet:Data-Driven Deportation in the 21st Century”,Georgetown Law Center on Privacy & Technology,May 2022,updated 2025,https://www.law.georgetown.edu/privacy-technology-center/publications/american-dragnet-data-driven-deportation-in-the-21st-century/。

6同上。

7Steven Scheer,“以色列选择亚马逊的AWS,谷歌为旗舰云项目”,路透,2021年4月21日,https://www.reuters.com/world/middle-east/israel-picks-amazons-aws-google-flagship-cloud-project-2021-04-21。

8人权理事会,从占领经济到种族灭绝经济:1967年以来被占领巴勒斯坦领土人权情况特别报告员弗朗西斯卡·阿尔巴尼斯的报告,联合国医生。A/GRC/59/23(2025年6月30日),https://www.ohchr.org/sites/default/files/documents/hrbodies/hrcouncil/sessions-regular/session59/advance-version/a-hrc-57-23-aev.pdf。

9Gerrit De Vynck和Chris Dehghanpoor,“哈马斯袭击后,谷歌急于向以色列军方出售AI工具”,华盛顿邮报,2025年1月21日,https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza;

Rabia Ali,“‘Project Nimbus Key Asset in Israel War on Gaza,Occupied Palestine,’”Anadolu Agency,April 18,2024,https://www.aa.com.tr/en/middle-east/-project-nimbus-key-asset-in-israel-s-war-on-gaza-occupied-palestine-/3195224。

10Gerrit De Vynck,“在哈马斯发动袭击后,谷歌急于向以色列出售工具,”华盛顿邮报,2025年1月21日,https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza/。

 

  2
 

 

此外,Alphabet积极扩展到人权记录不佳的司法管辖区——比如沙特阿拉伯——表明,治理风险并不局限于活跃的冲突地区,而是结构性的和管辖权的。沙特政府在利用数字基础设施进行非法监视和压制不同声音方面有着有据可查的记录,并且对政府获取和利用个人数据的保护措施薄弱。11投资者要求明确Alphabet声明的人工智能原则如何在当地法律要求直接与公司人权承诺相矛盾的数据访问的司法管辖区中生存。

 

2.Alphabet暴露于敏感语境进一步带来了重大风险

Alphabet因其客户使用云、数据或人工智能服务而面临违反国际人道主义法(IHL)和国际人权法的风险,这进一步引发了必须妥善应对的重大法律、监管、运营和声誉风险。Alphabet已经在全球范围内因侵犯隐私而面临数百万美元的处罚和损害赔偿。例如,法国监管机构CNIL因透明度和同意做法不足对谷歌处以5000万欧元的罚款,以及Rodriguez等人诉谷歌有限责任公司(N.D. Cal.)案的联邦陪审团在发现谷歌非法收集用户数据后判给了约4.26亿美元。

 

在敏感环境中部署已经存在风险的技术会带来更大的物质风险。在技术与军事、情报或安全职能相关的地方,Alphabet可能会面临更高的报复、破坏或声誉损害风险。Alphabet在地缘政治敏感环境中的基础设施面临基础设施瞄准、网络威胁、服务中断和人员风险。除了基础设施风险外,Alphabet还面临着影响地缘政治不稳定地区的设施、承包商和员工的实体和运营风险,尤其是在冲突升级或冲突外溢的情况下。例如,针对美国在伊朗的军事行动,Alphabet的中东资产在公开声明和伊朗革命卫队的威胁中被具体确定为无人机袭击的潜在目标。12

 

内部压力也产生了运营风险。2026年4月,数百名谷歌员工敦促首席执行官Sundar Pichai拒绝让五角大楼在机密环境中使用该公司的人工智能工具。在一封公开信中,员工强调,用于军事应用的谷歌人工智能系统可能“对谷歌在世界上的声誉、业务和角色造成无法弥补的损害”。13谷歌员工此前曾呼吁该公司避免向美国国土安全部和ICE等机构提供技术服务,理由是担心人权、监控和公民自由。14此外,联合国特别报告员呼吁该公司停止提供技术,为在巴勒斯坦被占领土(OPT)违反国际人道主义法提供便利。

 

_____________________________

11SMEX,“海湾地区的人工智能投资:机遇与监控风险”,2025年5月19日,https://smex.org/ai-investments-in-the-gulf-opportunities-and-surveillance-risks/。

12“敌人的技术基础设施:伊朗威胁亚马逊、谷歌和微软在中东的资产”,欧洲新闻网,2026年3月12日,https://www.euronews.com/next/2026/04/01/enemy-technology-infrastructure-iran-threatens-amazon-google-and-microsoft-assets-in-midd;“远程工作,随着科技公司对中东不断升级的紧张局势做出反应,办公室被关闭”,BBC新闻,2026年4月2日,https://www.bbc.com/news/articles/c99jjr7d40yo。

13Megan Cerullo,“数百名谷歌员工敦促CEO拒绝与五角大楼开展分类人工智能工作,”CBS新闻,2026年4月27日,https://www.cbsnews.com/news/google-ai-pentagon-classified-use-employee-letter/。

14Tonya Mosley,《谷歌员工呼吁保证不与ICE合作》,KQED2019年8月15日,https://www.kqed.org/news/11767929/google-employees-call-for-pledge-not-to-work-with-ice。

 

  3
 

 

3.2025/2026年的重大变化需要新股东行动

自上一个代理季节以来,Alphabet的政策和全球监管环境发生了重大变化,这为报告制定了一项新的、紧迫的任务。2025年2月,Alphabet取消了其人工智能原则中的关键承诺,放弃了此前关于不追求“可能造成或可能造成整体伤害”的技术的承诺,包括武器开发和监视工具。15曾经是该公司的一条“红线”已被一个自由裁量框架所取代,这让投资者没有客观的衡量标准来评估Alphabet何时或如何拒绝运营或销售高风险合同中的产品。

 

这种对原则的侵蚀因监督的结构性变化而变得更加复杂。虽然该公司指出其2025年委员会重组,但由此产生的审计委员会和风险与合规委员会章程明显删除了与民事和人权监督相关的现有语言。这些关于人工智能和人权的正式管理文件的沉默——在该公司的人工智能基础设施支出几乎翻了一番的时候——构成了实质性的治理空白。

 

此外,该提案中描述的风险已演变为系统性、跨司法管辖的威胁。作为一家全球重要的基础设施提供商,未能在任何单一司法管辖区(无论是美国还是国外)维持可强制执行的保障措施,对该公司的全球声誉及其经得起跨多个市场监管审查的能力造成了“传染风险”。

 

4.对Alphabet最终使用技术和Alphabet对这些风险的治理的可见度有限

这些风险与投资者相关,因为它们可能会影响运营连续性、资产安全以及公司管理与高风险部署相关的风险的能力。Alphabet提供了关于其如何评估和减轻这些风险的有限披露,包括是否有对冲突敏感的风险评估、应急计划和运营保障措施,以保护人员并确保服务的连续性。

 

一旦技术投入使用,投资者还面临着Alphabet如何监控和管理下游使用的有限可见性。作为军民两用、高度可扩展的技术,Alphabet的产品和服务在部署后往往难以监测。此外,该公司的技术在其服务中收集和处理大量个人数据,投资者对该公司如何管理数据收集、响应政府访问请求以及管理与在监控或执法环境中使用数据相关的风险的了解有限。

 

这些可见性限制在军事、情报和政府部署中尤其相关,一旦系统被集成到客户工作流程中,下游操作使用可能难以审计。在最近的军事行动受到法律学者广泛批评的背景下,包括那些在OPT、委内瑞拉和伊朗的军事行动,对这种下游能见度的需求从未像现在这样迫切。

 

Alphabet坚持认为,其人工智能原则、可接受的使用政策以及多层治理系统足以管理这些风险。然而,现有证据表明,这些框架在敏感部署中可能无法作为可强制执行的约束条件运作。例如,调查报告表明,某些合同结构可能会进一步限制提供商的自由裁量权,云提供商对主权客户如何使用基础设施的可见度可能有限,从而降低了他们发现滥用或干预的能力。16此外,一些报告强调了在某些法律背景下可能会降低外部对数据访问的可见性的机制,从而引发了有关监督和问责的进一步问题。17

 

_____________________________

15Miles Kruppa和Robert McMillan,“谷歌悄悄修改人工智能原则,取消对有害应用程序的分类禁令”,华尔街日报,2025年2月4日,https://www.wsj.com/tech/ai/google-quietly-revises-ai-principles-removing-categorical-ban-on-harmful-applications-4c8d5f32;Alphabet Inc.,“我们的人工智能原则”,2025年2月归档(比较2024年和2025年版本),https://ai.google/responsibility/principles/(2026年5月4日访问)。

16Billy 培瑞克,“独家:谷歌合同显示与以色列国防部达成协议”,时间,2024年4月12日,https://time.com/6966102/google-contract-israel-defense-ministry-gaza-war。

17Julia Carrie Wong,“透露:以色列要求谷歌和亚马逊使用秘密‘眨眼’来逃避法律命令,”卫报,2025年10月29日,https://www.theguardian.com/us-news/2025/oct/29/google-amazon-israel-contract-secret-code。

 

  4
 

 

这些限制不仅限于合同条款,还可能产生于业务整合。在高压环境中,条件可能会压缩决策时间线,增加对概率数据和自动输出的依赖,这增加了错误转化为现实世界伤害的可能性。在这类司法管辖区,公司还可能面临提供数据访问的法律义务、有限的监督机制以及对质疑政府请求的限制。这些情况在Alphabet声明的用户权利承诺与在政府权威可能取代公司政策的环境中运营的现实之间造成了结构性紧张。

 

此外,虽然Alphabet可接受的使用政策禁止可能造成伤害、侵犯合法权利或启用有害监视或目标的使用,但报告显示,在大规模的政府部署中,一旦系统运行,供应商监测下游使用或干预的能力可能有限,特别是在合同结构或管辖限制限制限制执行的情况下。18

 

Alphabet公开承诺对人工智能负责并尊重人权,但投资者对这些承诺是否在高风险环境中持续实施的可见度有限。鉴于2025年转向更加自由裁量、基于风险的框架,19投资者必须几乎完全依赖公司的合同保障措施、升级机制和治理结构来评估风险在实践中的管理方式。目前,没有充分的披露来确定缓解措施是否被准确定义、实施或有效。

 

这些动态引发了一个核心治理问题:Alphabet是否保留足够的控制和执行能力,以确保其技术在高风险、高危害环境中按照自己的政策使用。综合来看,这些因素表明,Alphabet的治理框架可能描述了预期的保障措施,但并未向投资者提供充分证据证明这些保障措施在实践中是可强制执行的。

 

该提案寻求披露,使投资者能够评估Alphabet的治理、升级和执行机制是否足以确保其所述政策在实践中得到一致和有效的实施。

 

5.当前董事会监督可能与风险敞口不匹配

Alphabet在其反对声明中表示,对人工智能相关风险的监督在董事会和审计与合规委员会层面得到解决。然而,公开披露对于这些治理结构如何与公司不断扩大的高风险人工智能和云部署风险保持一致提供了有限的明确性。例如,Alphabet没有披露高风险合同是如何升级以供董事会或委员会审查的,什么标准会引发更高的审查或干预,董事是否会审查特定部署的风险评估,或者董事会如何监测缓解措施是否在实践中得到实施和有效。

 

_____________________________

18Dhruv Mehrotra,“谷歌和亚马逊的Nimbus项目与以色列军方之间隐藏的联系”,WIRED,2024年7月10日,https://www.wired.com/story/google-amazon-project-nimbus-israel-military。

19谷歌,《人工智能原则》,2025年2月4日更新,https://ai.google/principles;Naomi Tiku和Gerrit De Vynck,“谷歌放弃不将人工智能用于武器或监视的承诺”,华盛顿邮报,2025年2月4日,https://www.washingtonpost.com/technology/2025/02/04/google-ai-policies-weapons-harm;Dan Milmo,“谷歌所有者放弃不将人工智能用于武器的承诺”,Guardian,2025年2月5日,https://www.theguardian.com/technology/2025/feb/05/google-owner-drops-promise-not-to-use-ai-for-weapons。

 

  5
 

 

至关重要的是,尽管人工智能是Alphabet增长和风险状况的主要驱动力,但审计与合规委员会章程并未明确提及人工智能治理或军民两用技术的管理。公司正式管理文件中的这种沉默构成了结构性监督空白。

 

投资者目前缺乏足够的证据来评估Alphabet的治理系统在实践中是否有效,特别是在识别高风险部署、维持可强制执行的控制、监测下游使用以及适当应对升级信号方面。在《联合国工商业与人权指导原则》等得到广泛认可的框架下,预计公司将进行持续、基于风险并融入决策过程的尽职调查。如果企业在实践中缺乏执行保障措施的能力,则表明存在物质治理缺口。

 

此外,提供有关Alphabet政策和做法有效性的报告不会妨碍公司参与新合同的能力或以其他方式对底线产生负面影响。相比之下,一份查明Alphabet治理漏洞的报告只会起到确保该公司正在降低风险的作用,否则这些风险可能会导致财务影响。

 

结论

投资者的核心问题是,Alphabet是否在高风险部署中保留了可强制执行的保障措施。尽管该公司坚称政策和治理框架已经到位,但现有证据提出了这样的问题,即这些保障措施在实践中是否始终如一地可操作和可执行,特别是在大规模政府、军事和高风险管辖环境中。

 

这项提议并不寻求规定操作决策。相反,它要求披露足够的信息,以便投资者在风险出现时评估Alphabet的治理、监督和控制系统是否有效运作。投票“反对”这一提案是在人工智能风险达到拐点的一年中持续不透明的论据。对该提案的投票支持提高透明度,并使投资者能够评估Alphabet的治理系统是否与其风险敞口和受托责任充分一致。

 

附加说明:反诽谤联盟(ADL)及其关联公司JLens提交了一项豁免征集,该征集错误地描述了提案11,试图通过向标准公司治理事项注入高度政治化和分裂的言论来分散其他股东对重大和法律风险的注意力。20ADL和JLens声称,第11号提案旨在诋毁Alphabet与单一国家的商业关系,这是一场旨在破坏公司治理所存在的强制执行的问责制的政治攻击。这一说法在事实上没有依据,在思想上也是不诚实的。该请求显然寻求对Alphabet覆盖全球多个高风险和敏感环境的治理流程有更深入的了解,因为Alphabet是世界各地政府和安全系统的基础设施提供商。提案中没有要求具体评估Alphabet在Nimbus项目中的作用,而是客观分析该公司在客户最终用途方面的风险。

 

_____________________________

20JLens,“The case to vote against Proposal 11:Shareholder Proposal on a Report on Data Privacy on Alphabet ' 2026 Proxy Statement”,2026年5月1日,https://www.jlensnetwork.org/the-case-to-vote-against-proposal-11-shareholder-proposal-regarding-a-report-on-data-privacy-on-alphabets-2026-proxy-statement;JLens。“对提案7投反对票的案例:股东提案,要求就GE Aerospace的2026年代理声明提交国防相关产品的报告。”2026年4月13日。https://www.jlensnetwork.org/the-case-to-vote-against-proposal-7-shareholder-proposal-requesting-report-on-defense-related-products-on-ge-aerospaces-2026-proxy-statement。

 

  6
 

 

这次针对第11号提案的攻击,是JLens用来阻挠多家大公司股东流程的可预测、可重复剧本的一部分。无论是在Alphabet反对数据隐私,还是在英特尔和GE Aerospace反对人权尽职调查报告,JLens始终依赖人身攻击和“关联犯罪”声称,将标准治理请求虚假地重新命名为恶意“BDS”活动。21通过这样做,JLens制造了一个“单一国家”的焦点,同时故意忽略了提案的全球范围。正如GE Aerospace的支持者在面临相同攻击时指出的那样,JLens忽略了该提案的全球和系统性范围,支持“狭隘的政治叙事”。

 

这一策略忽略了Alphabet的现实:提案11得到了代表超22亿美元Alphabet股票的34名联合申报人以及代表1.15万亿美元管理资产的40多名机构投资者组成的联盟的支持,他们已正式向董事会提出了这些确切的治理问题。22

 

Zevin作为可持续投资经理已有超过25年的历史,一直寻求将其投资战略与尊重权利的原则和所有地域风险敞口的风险最小化保持一致,曾在中国、缅甸、俄罗斯、乌克兰、沙特阿拉伯、印度和美墨边境等不同背景下领导或参与股东关于人权风险的活动。JLens没有解决Alphabet是否保留足够的董事会级别监督和升级机制来管理在监控和军事环境中部署人工智能和云技术的风险,而是没有提供证据证明Alphabet对客户数据的监督是足够的。在重复这些攻击的过程中,JLens正在进行明显的努力,以阻止股东支持一个客观的、全球公认的框架。通过反对这项决议,JLens实际上是在争辩Alphabet应该免于标准的人权尽职调查。如果我们在提案中提出的有关全球数据治理的物质金融风险的问题构成对单一地区的有针对性的攻击,ADL的论点已经崩溃。

 

联系方式详情

如有问题,请发邮件至marcela@zevin.com。

 

重要通知:

 

所表达的观点是作者截至引用日期的观点,可能会根据市场或其他情况随时更改。这些观点无意成为对未来事件的预测或对未来结果的保证。这些观点可能不能作为投资建议所依赖。本材料中提供的信息不应被视为购买或出售所提及的任何证券的建议。不应假定对这类证券的投资已经或将会盈利。就提及的特定证券而言,它们是作者在客观基础上选择的,以说明评论中表达的观点,并不代表为咨询客户购买、出售或推荐的所有证券。此处包含的信息是从被认为可靠的来源编制的,但我们不保证其及时性或准确性,并且不是所有可用数据的完整摘要或声明。这篇文章仅供参考,不应被理解为研究报告。

 

_____________________________

21JLens,《对提案7投反对票的案例:关于英特尔 2026年代理声明的英特尔人权尽职调查程序报告》,2026年3月30日,https://www.jlensnetwork.org/the-case-to-vote-against-proposal-7-report-on-intels-human-rights-due-diligence-process-on-intels-2026-proxy-statement。

22Steven Scheer,“Alphabet投资者推动使用其云、AI技术的安全措施”,路透,2026年4月29日,https://www.reuters.com/sustainability/boards-policy-regulation/alphabet-investors-push-safeguards-use-its-cloud-ai-tech-2026-04-29。

 

 

7