AI政策
パシフィック・コミュニティ・ベンチャーズ(PCV)の人工知能と機械学習の責任ある倫理的利用に関するポリシー
2025年8月
PCVの同僚、業界パートナー、そして支援者の皆様、,
人類の文明は新たな時代、4番目 産業革命、人工知能 (AI) や機械学習 (ML) などの技術革新により、ビジネス業務の効率化、アイデアやコンテンツの創出、人間の能力を超えるスピードでの膨大な情報処理を実現する力と可能性がもたらされています。.
PCVは、長年にわたりデータ主導型で「ハイテクかつハイタッチ」な組織として、米国で最初のインパクト投資組織の一つとして設立されました。PCVは、中小企業の起業家の情熱と回復力に投資し、質の高い雇用の創出、経済的流動性の向上、そして経済的幸福の向上を支援するとともに、歴史的に十分なサービスを受けられなかった地域社会の活性化に尽力しています。PCVは、連邦政府および州政府から認定を受けたコミュニティ開発金融機関(CDFI)でもあります。CDFIは、30年以上前に連邦政府が金融業界における差別とレッドライニングを認めたことを受けて、公民権運動を経済的正義の柱として発展した分野です。.
AIがもたらす潜在的な倫理的問題、そして従業員、お客様、そして地域社会に及ぼす可能性のある、良い影響と悪い影響を認識しています。私たちは、ここ数年、特に金融意思決定、採用、刑事司法など、当社と関連するデリケートな業界において、AIによって永続化されてきたアルゴリズムのバイアスについて、調査と理解を継続しています。.
そのため、当社は、当社の価値観、使命、目標に沿ったAIとMLの倫理的使用に関する包括的なポリシーを策定し、実装することに尽力しています。 私たちは、AI アプリケーション、ツール、方法論、システムを活用する決定は、個人とコミュニティの同意、データの自律性とプライバシー、そして人間の主体性と尊厳の尊重を支持する必要があると考えています。.
そのため、AIとML技術の利用においては、, PCVは厳密に遵守します 以下に 6つの基本原則:
- 使用される AI の利点によって生じる害が最小限に抑えられることを保証し、特定のグループや個人に不釣り合いな害を与えないようにする必要があります。.
- AIシステムの使用によって個人または集団に対する差別や不均衡な損害を防ぐため、人口統計学的に細分化されたデータで学習されたAIを選択または開発する必要があります。人口統計学的にバランスの取れたデータなしで学習されたアルゴリズムは、低所得者層や有色人種、移民、その他のサービス不足層に対して、ほぼ確実にパフォーマンスが低下することを認識しています。.
- AIシステムは、業務の過程において、個々の顧客または特定のグループを差別したり排除したりする目的で使用してはなりません。AIシステムには、予測モデル、マッチングアルゴリズム、サポートデスクのチャットボット、レコメンデーションエンジン、マーケティングおよびコミュニケーション用の自動生成コンテンツ、管理タスク(財務、融資処理、レポート作成など)を自動化するためのツールやスクリプトなどが含まれますが、これらに限定されません。.
- PCVで使用されるAIシステムは、データの悪用や独占から保護するために、常にクライアントと顧客のプライバシーとデータの権利を優先し、保護する必要があります。 そして CDFIとして義務付けられている融資レベルのプライバシー法の遵守を確保するためです。顧客には、CDFIとして投資する中小企業の起業家とその従業員が含まれます。また、PCVがデータ、アナリティクス、機械学習、AIのキャパシティビルダーとして支援する他のCDFIやミッションドリブンな組織も含まれます。PCVは、顧客データを常に厳格に保護することをお約束し、これらのデータを他のプログラムデータから隔離されたファイアウォール環境内に保管しています。.
- AIシステムは、 知らせて サポート 人間による重要な分析と意思決定を行うものであり、決して監視なしで実行したり、自律システムとして動作したりしてはなりません (つまり、プロセスや意思決定のループから人間を排除しないでください)。.
- 当社は、本ポリシーの変更およびCEOの承認なく、融資判断、その他重要な決定を行うために自律型AIを使用することはありません。重要な決定には、以下が含まれますが、これらに限定されません。
- 融資を受ける人と受けない人を決定します。.
- ビジネス アドバイザリ サポートを受ける人と受けない人を決定します。.
- 調査への参加、新しいパイロット プログラム、あらゆる種類のインセンティブなど、当社の製品、サービス、新しい機会について誰に通知するかを決定します。.
- AIによる特定の決定に疑問が生じた場合は、いかなるグループも理由なく、あるいは客観的な根拠なく、PCV製品またはサービスへのアクセスを禁止されないよう、常に注意してください。また、客観的な根拠なく、特定のグループから情報が隠蔽されないよう、常に注意してください。.
アルゴリズムは、融資、雇用、刑事司法に関する意思決定に関する膨大なデータセットを用いて学習されますが、これらのデータセットでは、歴史的に低所得者層や有色人種が除外されてきた「リスク」の定義が用いられてきました。そのため、PCVおよび業界内でアルゴリズムをテストするためのユースケースとガードレールの導入には、特に慎重に取り組む必要があると考えています。これらの新技術は、私たちがこれまでハイテクでハイタッチなアプローチによって築き上げてきた成果をいとも簡単に打ち消し、悪影響が深刻化する前に対処できないほどの規模とスピードで、私たちの分野における偏見を加速させる可能性があることを認識しています。.
私たちは、CDFI、インパクト投資家、コミュニティ開発組織として、 どうやって AIを今導入することは、今後何年にもわたってこの業界にとって先例となるでしょう。PCVにおけるテクノロジーとAIの能力を強化する中で、CDFIと学びを共有し、エコシステムに影響を与えること、顧客とコミュニティの声を重視したエビデンスに基づいた実践を推進すること、偏見をなくすこと、市場の偏りを抑制すること、排除を防ぐこと、そして私たちと仲間がサービスを提供する人々から明確な同意を得ることを約束します。.
同業のCDFIやその他のミッションドリブンな組織と協働する際には、AIの許容可能な利用方法とみなす価値観とパラメータ(詳細は下記参照)を共有する必要があります。協働の過程でこれらの価値観とパラメータに相違が認められた場合、私たちは協働を解消する権利を行使します。連携を確保した組織とは、特に恵まれない人々を含むすべての人々の人間の尊厳を高めるAI標準の普及を支援する実践コミュニティの構築に取り組んでいきます。.
より具体的なガイドラインは次のとおりです。
- AIの使用を常にクレジットする: AIが共同執筆やコンテンツ全体の作成といったコンテンツ作成を支援する場合、従業員は使用したAIシステムまたはツールに適切なクレジットを付与する必要があります。これは、文書または出版物に脚注などの表示を追加することで実現されます。.
- データのプライバシーを確保する: PCVは、AIアプリケーションに素材を入力する際に、機密性の高い顧客データと企業機密情報を保護することの重要性を認識しています。AIツールを使用する前に、従業員はデータセキュリティに関する付属文書を確認し、使用開始前に最高データ責任者(CDO)およびCEOの承認を得る必要があります(下記参照)。PCVは、データの匿名化、暗号化、プラグインツール、アクセス制御(サードパーティ製ツールの影響を軽減するため)など、適切なセキュリティ対策を講じ、情報への不正アクセスや不正使用を防止します。.
- 意思決定には注意を払う: PCVは、AIが意思決定につながる標準的なプロセスを自動化できることを認識しています。しかしながら、偏見や差別的な意思決定を避けるため、慎重に行動し、プロセスにおいて人間による監視を意図的に行う必要があります。PCVとその従業員は、使用するAIシステムとツールを定期的にレビューし、その正確性、公平性、透明性を確保することに尽力します。PCVは、AIの倫理的利用に関する従業員研修を実施し、AIが人間の意思決定を代替するのではなく、情報提供と支援のために活用されるよう徹底します。.
- 信頼できる機関と提携する: PCVの上級管理職は、AIの適切かつ倫理的な利用に関する専門知識を持つ非営利団体、業界団体、研究機関などの信頼できる機関とのパートナーシップの構築に取り組んでいます。倫理的なAIの実践に関する指導を定期的に求め、その提言を当社のポリシーと手順に取り入れていきます。. (例: Code for America、Black Wealth Data Center、Data Equity など)
- 透明性を維持する: PCVとその従業員は、AIの利用がステークホルダー、顧客、そして地域社会にとって透明性を確保しなければなりません。AIシステムとツールの利用目的、その限界、そしてステークホルダーへの潜在的な影響を明確に伝えます。また、AIの利用に関するフィードバックや懸念事項を報告できる場を提供します。.
- 継続的な改善に取り組む: PCVは、変化するトレンド、ベストプラクティス、そして新たなリスクを反映するため、AIの倫理的利用に関するポリシーを定期的に見直し、更新します。また、当社のポリシーが業界標準、規制要件、そして当社の価値観とミッションに合致していることを保証します。.
- バイアスの測定: PCV は、女性識別、BIPOC、LMI の割合などの KPI を使用して、潜在的な偏見を測定および追跡します。.
- データ刷新ワーキンググループ: PCVは、DownhomeやQooperなどのプラットフォームと同様に、生成AIツールにもデータガバナンスの実践を適用します。懸念事項があれば、社内ワーキンググループで取り上げ、関係者と協議します。.
- 試験の承認: 新しいAIおよびMLツールをテストするスタッフは、最高データ責任者(CDO)およびCEOに許可申請を提出し、テストするユースケース、PCVへの期待される成果または付加価値、そして上記のガイドラインへの準拠方法を明確にする必要があります。また、外部コンサルタントとこのポリシーを明確にし、外部MOUに組み込み、確認の署名を得る必要があります。何らかの措置を講じる前に、CEOおよびCDOからの明確な書面による承認を得る必要があります。.
- 自動補完のためのAIツールの使用: AIツールは、電子メール、Microsoft Officeアプリケーション、コーディングプラットフォームなど、日常的なアプリケーションやソフトウェアへの統合がますます進んでいます。自動補完機能、いわゆる「インテリジェントレコメンデーション」は、現在ではほとんどのアプリケーションに搭載されており、効率化を目的としています。PCVの従業員は、Word、Excel、PowerPoint、電子メール、その他頻繁に使用するアプリケーションで自動補完機能を利用することは許可されていますが、自動補完されたコンテンツの正確性を確認する必要があります。自動補完されたコード(例えば、データ分析やアルゴリズム構築中にPythonやRを記述する場合など)は推奨されません。自動生成されたコードは、多くの場合、ショートカットを提案し、ミッションベースのユースケースを完全に理解せず、コードレビュー中にロジックの解釈が困難な一連のステップを作成するからです。コード補完ツールを使用する場合、開発者はすべてのロジック、構文、出力の正確性を確認し、自動補完が使用されたコードにコメントを記入する必要があります。社内外の関係者を問わず、不正確、誤解を招く、または「幻覚的な」コンテンツが配信された場合、自動補完ツールを非難することは容認されません。 PCV の全従業員は、自動補完の有無にかかわらず、個人として作成するコンテンツに対して個人的な責任を負います。.
PCVとその従業員は、このポリシーを採用することにより、AIの倫理的な利用を促進し、すべてのステークホルダー間の信頼関係を構築することを目指しています。責任ある倫理的なAIの利用は、お客様に価値をもたらし、ワークフローの効率化をもたらし、恵まれないコミュニティのイノベーション、成長、そして成果の向上に貢献すると信じています。.
PCV スタッフは、このポリシーを作成するにあたり、以下のフレームワーク、記事、専門家を参照しました。
- “「AIは根本的に公民権と両立しない」ヴィヴィアン・ミン博士、アーバン研究所Socos Labs、2017年, https://www.youtube.com/watch?v=Cm7IJiokqz8
- “「これは産業革命ではない」ヴィヴィアン・ミン博士、ソコス・アカデミー、2018年, https://academy.socos.org/not-the-ir/
- “「AI宣言は必要ない。憲法が必要だ」ヴィヴィアン・ミン博士、フィナンシャル・タイムズ, https://www.ft.com/content/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063
- “「テクノロジスト ヴィヴィアン・ミン:AIは人権である」ヴィヴィアン・ミン博士、ガーディアン紙、2018年, https://www.theguardian.com/technology/2018/dec/07/technologist-vivienne-ming-ai-inequality-silicon-valley
- “「人間が舵を取る:人間的なタッチでAIへの信頼を築く」Salesforce倫理・人道的使用オフィス、2024年, https://humanatthehelm.splashthat.com/
- “「データ公平性フレームワーク」、We All Count、2022年、, https://weallcount.com/the-data-process/
- “「テクノロジーの責任ある利用」世界経済フォーラム、2019年, https://www3.weforum.org/docs/WEF_Responsible_Use_of_Technology.pdf
- “「第四次産業革命:それが何を意味するのか、どう対応するのか」クラウス・シュワブ、世界経済フォーラム, https://www.weforum.org/stories/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
- “「AI権利章典の青写真」ホワイトハウス、2023年, https://www.whitehouse.gov/ostp/ai-bill-of-rights/
- “「AIリスク管理フレームワーク」、米国国立標準技術研究所、2023年、, https://www.nist.gov/itl/ai-risk-management-framework
- “「責任あるAIイノベーションを推進するためのマイクロソフトの自主的な取り組み」、マイクロソフト、2023年、, https://blogs.microsoft.com/on-the-issues/2023/07/21/commitment-safe-secure-ai/
このポリシーは、過去 2 年間にわたり PCV 内のスタッフ間データ ガバナンス ワーキング グループの一環として、PCV 諮問委員会のメンバーであり、カリフォルニア州バークレーの Socos Labs を拠点とする倫理的な人工知能の専門家である Vivienne Ming 博士の支援を受けて起草されました。.