人工智能政策
太平洋共同体风险投资公司(PCV)关于负责任且合乎道德地使用人工智能和机器学习的政策
2025年8月
PCV同事、行业合作伙伴和支持者们,,
人类文明已经进入了一个新时代,即4世纪。th 工业革命带来了人工智能 (AI) 和机器学习 (ML) 等技术创新,赋予了我们简化业务运营、产生想法和内容以及以超越人类能力的速度处理海量信息的能力和潜力。.
PCV长期以来是一家以数据驱动、兼顾“高科技与人文关怀”的机构,是美国最早的影响力投资机构之一。PCV致力于投资小型企业主的激情和韧性,帮助他们创造优质就业机会,提升经济流动性和财务福祉,同时改善历史上服务不足的社区。PCV也是一家获得联邦和州政府认证的社区发展金融机构(CDFI)。社区发展金融机构这一领域源于民权运动,是经济正义的支柱之一。30多年前,联邦政府承认正规金融行业存在歧视和’红线区”现象,此后该领域应运而生。.
我们意识到人工智能可能带来的伦理问题,以及它对我们的员工、客户和社区可能产生的正面和负面影响。我们正在持续研究和了解人工智能在过去几年中造成的算法偏见,尤其是在与我们业务相关的敏感行业,例如金融决策、招聘和刑事司法领域。.
因此,我们致力于制定和实施一项全面的人工智能和机器学习伦理使用政策,使其与公司的价值观、使命和目标保持一致。 我们认为,利用任何人工智能应用、工具、方法或系统的决策都必须维护个人和社区的同意、数据自主权和隐私权,以及对人类自主权和尊严的尊重。.
因此,在使用人工智能和机器学习技术时,, PCV严格遵守 致以下 六项核心原则:
- 我们必须确保人工智能带来的益处能够最大限度地减少其造成的危害,并且绝不能对任何特定群体或个人造成不成比例的伤害。.
- 我们必须选择或开发基于按人口统计分类的数据进行训练的人工智能,以防止使用该人工智能系统对任何个人或群体造成歧视或不成比例的伤害。我们承认,未经按比例平衡的人口统计数据训练的算法,几乎总是对低收入客户、有色人种客户、移民和其他服务不足的群体表现更差。.
- 在业务过程中,绝不能利用人工智能系统歧视或排斥个别客户或群体。人工智能系统包括但不限于预测模型、匹配算法、客服聊天机器人、推荐引擎、用于营销和沟通的自动生成内容、用于自动化管理任务(例如财务、贷款处理和报告)的工具和脚本等等。.
- PCV使用的AI系统必须始终优先考虑并保障客户的隐私和数据权利,以防止数据被滥用或垄断。 和 为确保我们遵守贷款层面的隐私法规,这是我们作为社区发展金融机构(CDFI)的义务。我们的客户包括我们作为CDFI投资的小企业主及其员工。客户还包括其他CDFI或以使命为导向的组织,PCV在数据、分析、机器学习和人工智能领域为其提供支持,发挥其能力建设者的作用。PCV承诺始终严格保护客户数据,并将其保存在与其他项目数据隔离的防火墙环境中。.
- 人工智能系统应该用于 告知和 支持 人类的批判性分析和决策,绝不能无人监督或作为自主系统运行(即,不要将人从过程或决策循环中移除)。.
- 未经本政策变更及首席执行官批准,我们不会使用自主人工智能进行贷款决策或其他重大决策。重大决策包括但不限于以下几种:
- 决定谁能获得贷款,谁不能获得贷款。.
- 确定哪些人将获得商业咨询支持,哪些人不会获得商业咨询支持。.
- 确定我们将向哪些人告知我们的产品、服务和新机会,例如参与研究、新的试点项目或任何类型的激励措施。.
- 如果某个人工智能辅助决策存在任何疑问,务必确保不会无故或缺乏客观理由地禁止任何群体获得和平队产品或服务。同样,务必确保不会无故或缺乏客观理由地向任何特定群体隐瞒信息。.
由于算法是基于贷款、招聘和刑事司法决策的大型数据集进行训练的,而这些决策中使用的“风险”定义历来将低收入人群和有色人种排除在外,因此我们认为必须格外谨慎地选择用例和设置防护措施,以便在PCV和我们所在的行业内测试这些算法。我们意识到,这些新技术很容易抹杀我们迄今为止通过高科技与人性化相结合的方式所取得的成果,并以我们可能永远无法在不利影响被深刻强化之前加以解决的规模和速度,加剧我们领域的偏见。.
我们认识到,作为一家社区发展金融机构、影响力投资者和社区发展组织,我们所做的一切——就以下方面而言: 如何 我们现在部署人工智能,将为未来数年该行业树立先例。随着我们在PCV内部不断提升技术和人工智能能力,我们承诺与社区发展金融机构(CDFI)和影响力生态系统分享经验,倡导以客户和社区声音为中心的循证实践,防止偏见,遏制市场漂移,避免排斥,并确保我们及同行在服务对象明确同意的情况下开展工作。.
在与同行社区发展金融机构 (CDFI) 和其他以使命为导向的组织合作时,我们必须分享我们的价值观以及我们认为可接受的人工智能使用规范(详见下文)。如果在合作过程中,我们发现彼此在这些价值观和规范方面存在分歧,我们将有权终止合作。对于我们达成共识的组织,我们将致力于构建一个实践社区,以帮助推广能够提升所有人(尤其是服务不足人群)人类尊严的人工智能标准。.
以下是更具体的指导原则:
- 始终要注明人工智能的使用情况: 当人工智能辅助内容创作,无论是共同撰写还是独立创作,员工都必须确保对所使用的人工智能系统或工具给予适当的署名。这可以通过在文档或出版物中添加脚注或其他方式来实现。.
- 确保数据隐私: PCV 深知在向人工智能应用输入数据时,保护敏感客户数据和公司机密信息至关重要。员工在使用任何人工智能工具前,必须阅读随附的数据安全说明,并获得首席数据官和首席执行官的批准方可开始使用(见下文)。PCV 将确保采取适当的安全措施,例如数据匿名化、加密、插件工具和访问控制(以降低第三方工具的风险),以防止未经授权访问或使用此类信息。.
- 决策时要谨慎。: PCV 认识到人工智能可以自动化一些标准流程,从而辅助决策。然而,我们必须谨慎行事,确保人工监督贯穿整个流程,以避免出现偏见或歧视性决策。PCV 及其员工承诺定期审查所使用的人工智能系统和工具,以确保其准确性、公平性和透明度。PCV 将为员工提供人工智能伦理使用方面的培训,确保人工智能用于辅助和支持人类决策,而不是取代人类决策。.
- 与值得信赖的机构合作: PCV的高级领导层正致力于与值得信赖的机构建立合作关系,例如非营利组织、行业协会和研究机构,这些机构在人工智能的合理合乎伦理的使用方面拥有丰富的专业知识。我们将定期就人工智能的伦理实践征求他们的意见,并将他们的建议纳入我们的政策和流程中。. (例如,Code for America、Black Wealth Data Center、Data Equity 等。)
- 坚持透明原则: PCV及其员工必须确保人工智能的使用对我们的利益相关者、客户和社区保持透明。我们将清晰地传达人工智能系统和工具的预期用途、局限性以及对利益相关者的任何潜在影响。我们还将提供渠道,以便就人工智能的使用提出反馈和意见。.
- 致力于持续改进: PCV将定期审查并更新我们的人工智能伦理使用政策,以反映不断变化的趋势、最佳实践和新出现的风险。我们将确保我们的政策符合行业标准、监管要求以及我们公司的价值观和使命。.
- 测量偏差: PCV 将使用女性、有色人种和低收入人群百分比等关键绩效指标来衡量和跟踪潜在的偏见。.
- 数据重塑工作组: PCV将对生成式人工智能工具采用与Downhome或Qooper等平台相同的数据治理实践。任何问题都将在内部工作组中提出,以便与利益相关者进行讨论。.
- 测试批准: 员工测试新的人工智能和机器学习工具时,需要向首席数据官和首席执行官提交许可申请,阐明他们想要测试的用例、预期结果或对PCV的附加价值,以及他们如何遵守上述准则。他们还需要与任何外部顾问澄清此政策,将其纳入外部谅解备忘录,并获得确认签字。在采取任何行动之前,他们必须获得首席执行官和首席数据官的明确书面批准。.
- 使用人工智能工具进行自动补全: 人工智能工具正日益融入日常应用和软件,例如电子邮件、Microsoft Office 办公软件和编码平台。自动补全功能,或称“智能推荐”,如今已成为大多数应用程序的标配,旨在提高效率。和平队志愿者(PCV)员工可以使用 Word、Excel、PowerPoint、电子邮件和其他常用应用程序的自动补全功能,但必须审核自动补全内容的准确性。我们不鼓励使用自动补全代码(例如:在编写 Python 或 R 代码进行数据分析或构建算法时),因为自动生成的代码通常会提供捷径,无法完全理解基于任务的使用场景,并且会生成一系列逻辑难以理解的步骤,从而影响代码审查。如果使用代码补全工具,开发人员必须检查所有逻辑、语法和输出的准确性,并在使用自动补全功能的代码中添加注释。如果向内部或外部利益相关者提供不准确、误导性或“臆想”的内容,我们将不容忍将责任归咎于自动补全工具。 PCV 的所有员工都对他们个人创作的内容(无论是否使用自动补全功能)承担个人责任。.
通过采纳这项政策,PCV及其员工旨在促进人工智能的合乎伦理的使用,并在所有利益相关者之间建立信任。我们相信,负责任且合乎伦理的人工智能使用能够为我们的客户创造价值,提高我们的工作流程效率,并促进服务不足社区的创新、发展和福祉。.
PCV工作人员在制定这项政策时参考了以下框架、文章和专家意见:
- “人工智能与公民权利从根本上来说是不相容的”,薇薇安·明博士,城市研究所Socos Labs,2017年, https://www.youtube.com/watch?v=Cm7IJiokqz8
- “这不是工业革命”,薇薇安·明博士,Socos学院,2018年, https://academy.socos.org/not-the-ir/
- “我们不需要人工智能宣言——我们需要一部宪法”,薇薇安·明博士,《金融时报》, https://www.ft.com/content/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063
- “技术专家薇薇安·明:人工智能是一项人权”,薇薇安·明博士,《卫报》,2018年, https://www.theguardian.com/technology/2018/dec/07/technologist-vivienne-ming-ai-inequality-silicon-valley
- “以人为本:用人性化的方式建立对人工智能的信任”,Salesforce 道德与人道使用办公室,2024 年, https://humanatthehelm.splashthat.com/
- “《数据公平框架》,We All Count,2022 年, https://weallcount.com/the-data-process/
- “负责任地使用技术”,世界经济论坛,2019年, https://www3.weforum.org/docs/WEF_Responsible_Use_of_Technology.pdf
- “第四次工业革命:它的意义何在,如何应对”,克劳斯·施瓦布,世界经济论坛, https://www.weforum.org/stories/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
- “《人工智能权利法案蓝图》,白宫,2023年, https://www.whitehouse.gov/ostp/ai-bill-of-rights/
- “人工智能风险管理框架”,美国国家标准与技术研究院,2023年, https://www.nist.gov/itl/ai-risk-management-framework
- “微软推进负责任的人工智能创新的自愿承诺”,微软,2023 年, https://blogs.microsoft.com/on-the-issues/2023/07/21/commitment-safe-secure-ai/
该政策是 PCV 内部跨部门数据治理工作组在过去两年中起草的,并得到了 PCV 咨询委员会成员 Vivienne Ming 博士的支持——Vivienne Ming 博士是一位伦理人工智能专家,就职于加州伯克利 Socos Labs。.