AI 정책
태평양 공동체 벤처(PCV)의 인공지능 및 기계 학습의 책임 있고 윤리적인 사용에 관한 정책
2025년 8월
PCV 동료 여러분, 업계 파트너 여러분, 그리고 후원자 여러분,
인류 문명은 새로운 시대, 즉 4번째 시대로 접어들었다.그 산업혁명과 인공지능(AI) 및 머신러닝(ML)과 같은 기술 혁신은 비즈니스 운영을 간소화하고, 아이디어와 콘텐츠를 생성하며, 인간의 능력을 뛰어넘는 속도로 방대한 정보를 처리할 수 있는 힘과 잠재력을 가져왔습니다.
PCV는 오랜 기간 데이터 기반의 "첨단 기술과 인간적인 접촉"을 결합한 조직으로, 미국 최초의 임팩트 투자 기관 중 하나로 설립되었습니다. PCV는 중소기업가들의 열정과 회복력에 투자하여 양질의 일자리를 창출하고 경제적 이동성과 재정적 안정을 증진하는 동시에 역사적으로 소외되었던 지역사회를 발전시키는 데 헌신하고 있습니다. 또한 PCV는 연방 및 주 정부의 인증을 받은 지역사회 개발 금융 기관(CDFI)입니다. CDFI는 30여 년 전 연방 정부가 공식 금융 산업의 차별과 레드라이닝을 인정한 후, 시민권 운동의 경제적 정의를 위한 핵심 요소로 탄생한 분야입니다.
저희는 인공지능이 제기할 수 있는 잠재적인 윤리적 문제와 그것이 직원, 고객 및 지역사회에 미칠 수 있는 긍정적 및 부정적 영향을 인지하고 있습니다. 특히 금융 의사 결정, 채용, 형사 사법 등 저희와 관련된 민감한 산업 분야에서 인공지능 알고리즘이 조장하는 편향성을 지속적으로 연구하고 이해하기 위해 노력하고 있습니다.
따라서 당사는 회사의 가치, 사명 및 목표에 부합하는 인공지능 및 머신러닝의 윤리적 사용에 관한 포괄적인 정책을 개발하고 시행하는 데 전념하고 있습니다. 우리는 인공지능 애플리케이션, 도구, 방법론 또는 시스템을 활용하는 결정은 개인 및 공동체의 동의, 데이터 자율성 및 개인정보 보호, 그리고 인간의 자율성과 존엄성에 대한 존중을 바탕으로 이루어져야 한다고 믿습니다.
따라서 AI 및 ML 기술을 활용할 때, PCV는 엄격히 준수합니다. 다음에게 6가지 핵심 원칙:
- 우리는 인공지능 사용으로 인한 이점이 피해를 최소화하도록 해야 하며, 특정 집단이나 개인에게 불균형적으로 피해를 주어서는 안 됩니다.
- 우리는 인구통계학적으로 세분화된 데이터로 훈련된 인공지능을 선택하거나 개발해야 합니다. 그래야만 인공지능 시스템 사용으로 인해 특정 개인이나 집단에 대한 차별이나 불균형적인 피해가 발생하는 것을 방지할 수 있습니다. 인구통계학적으로 균형 잡힌 데이터 없이 훈련된 알고리즘은 저소득층이나 유색인종 고객, 이민자 및 기타 소외 계층에게 거의 항상 더 나쁜 결과를 보인다는 점을 인지하고 있습니다.
- 인공지능 시스템은 사업 운영 과정에서 개별 고객이나 특정 집단을 차별하거나 배제하는 데 사용되어서는 안 됩니다. 인공지능 시스템에는 예측 모델, 매칭 알고리즘, 고객 지원 챗봇, 추천 엔진, 마케팅 및 커뮤니케이션용 자동 생성 콘텐츠, 관리 업무 자동화 도구 및 스크립트(예: 재무, 대출 처리, 보고) 등이 포함되지만 이에 국한되지는 않습니다.
- PCV에서 사용하는 AI 시스템은 항상 고객과 이용자의 개인정보 및 데이터 권리를 최우선으로 보호해야 하며, 데이터의 오용이나 독점을 방지해야 합니다. 그리고 저희는 CDFI로서 대출 관련 개인정보 보호 법규를 준수해야 할 의무가 있으므로 이를 철저히 지키고 있습니다. 고객에는 저희 CDFI가 투자하는 소기업 사업가와 그들의 근로자가 포함됩니다. 또한, PCV가 데이터, 분석, 머신러닝, 인공지능 분야의 역량 강화 기관으로서 지원하는 다른 CDFI 또는 사명 지향적인 조직도 고객으로 포함됩니다. PCV는 고객 및 의뢰인 데이터를 항상 엄격하게 보호하며, 다른 프로그램 데이터와 분리된 방화벽 환경 내에 보관합니다.
- AI 시스템은 다음과 같은 용도로 사용되어야 합니다. 알리고 지원하다 인간의 비판적 분석 및 의사결정이 필수적이며, 절대 감독 없이 작동하거나 자율 시스템으로 운영되어서는 안 됩니다(즉, 프로세스 또는 의사결정 과정에서 인간을 배제해서는 안 됩니다).
- 당사는 본 정책을 변경하고 CEO의 승인을 받기 전까지는 자율형 AI를 사용하여 대출 결정 또는 기타 중요한 결정을 내리지 않을 것입니다. 중요한 결정에는 다음 사항이 포함되지만 이에 국한되지는 않습니다.
- 대출을 받을 사람과 받지 못할 사람을 결정하는 것.
- 비즈니스 자문 지원을 받을 사람과 받지 못할 사람을 결정합니다.
- 당사의 제품, 서비스 및 새로운 기회(예: 연구 참여, 새로운 시범 프로그램 또는 모든 종류의 인센티브)에 대해 누구에게 알릴지 결정합니다.
- 인공지능 기반 결정에 의문점이 있는 경우, 어떠한 집단도 정당한 이유나 객관적인 근거 없이 평화봉사단 상품 또는 서비스 이용이 배제되지 않도록 항상 확인해야 합니다. 또한, 어떠한 집단에게도 객관적인 근거 없이 정보가 제공되지 않는 일이 없도록 항상 확인해야 합니다.
알고리즘은 대출, 고용, 형사 사법 결정과 관련된 대규모 데이터 세트를 기반으로 학습되는데, 이러한 데이터 세트에서 사용된 "위험"의 정의는 역사적으로 저소득층과 소수 인종을 배제해 왔습니다. 따라서 우리는 PCV와 우리 업계 내에서 이러한 알고리즘을 테스트할 때 사용 사례와 안전장치를 매우 신중하게 고려해야 한다고 생각합니다. 우리는 이러한 새로운 기술이 첨단 기술과 인간 중심적인 접근 방식을 통해 지금까지 이뤄낸 성과를 쉽게 무너뜨릴 수 있으며, 부정적인 영향이 깊숙이 자리잡기 전에 해결할 수 없을 정도로 우리 분야의 편견을 가속화할 수 있다는 점을 인지하고 있습니다.
우리는 CDFI, 임팩트 투자자, 지역사회 개발 조직으로서 우리가 하는 일이 – 이러한 측면에서 – 중요하다는 것을 인식하고 있습니다. 어떻게 우리가 지금 인공지능(AI)을 도입하는 것은 향후 수년간 해당 분야에 중요한 선례를 남길 것입니다. 평화봉사단체(PCV) 내에서 기술 및 AI 역량을 강화함에 따라, 우리는 CDFI 및 임팩트 생태계와 경험을 공유하고, 의뢰인과 지역사회의 목소리를 중심으로 하는 증거 기반 실천을 옹호하며, 편견을 방지하고, 시장의 변덕을 억제하고, 배제를 막고, 우리와 동료들이 지원하는 모든 사람들의 명시적인 동의를 얻도록 노력할 것입니다.
다른 CDFI(지역사회 개발 금융 기관) 및 기타 사명 지향적 조직과 협력할 때, 우리는 우리의 가치와 인공지능(AI) 활용에 대한 허용 가능한 기준(아래 상세 설명 참조)을 공유해야 합니다. 협력 과정에서 이러한 가치와 기준에 차이가 발생할 경우, 우리는 협력을 종료할 권리를 행사할 것입니다. 이러한 기준에 부합하는 조직과 협력할 경우, 우리는 모든 사람, 특히 소외 계층의 인간 존엄성을 증진하는 AI 표준을 확산하는 데 도움이 되는 실천 공동체를 구축하기 위해 노력할 것입니다.
보다 구체적인 지침은 다음과 같습니다.
- AI 사용 시에는 항상 출처를 밝혀야 합니다.: 인공지능(AI)이 콘텐츠 제작을 지원하여 글을 공동 집필하거나 콘텐츠를 완전히 생성하는 경우, 직원은 사용한 AI 시스템 또는 도구에 대한 적절한 출처 표기를 해야 합니다. 이는 문서 또는 출판물에 각주를 추가하거나 다른 방식으로 표시하여 이루어져야 합니다.
- 데이터 개인정보 보호를 보장하세요: PCV는 AI 애플리케이션에 자료를 입력할 때 민감한 고객 데이터와 회사 기밀 정보를 보호하는 것이 중요하다는 점을 인식하고 있습니다. 모든 AI 도구를 사용하기 전에 직원은 데이터 보안 관련 내용을 검토하고 최고 데이터 책임자(CDO)와 CEO의 승인을 받아야 합니다(아래 참조). PCV는 데이터 익명화, 암호화, 플러그인 도구, 접근 제어(타사 도구 차단) 등 적절한 보안 조치를 마련하여 무단 접근 또는 정보 사용을 방지할 것입니다.
- 의사결정 시 신중을 기하십시오.: PCV는 인공지능(AI)이 의사결정으로 이어지는 표준 프로세스를 자동화할 수 있음을 인지하고 있습니다. 그러나 편향되거나 차별적인 결정을 방지하기 위해 인간의 감독이 의도적으로 프로세스에 포함되도록 주의를 기울여야 합니다. PCV와 임직원은 사용되는 AI 시스템 및 도구를 정기적으로 검토하여 정확성, 공정성 및 투명성을 보장하기 위해 노력할 것입니다. PCV는 직원들에게 AI의 윤리적 사용에 대한 교육을 제공하여 AI가 인간의 의사결정을 대체하는 것이 아니라 정보를 제공하고 지원하는 데 활용될 수 있도록 할 것입니다.
- 신뢰할 수 있는 기관과 협력하십시오: PCV의 고위 경영진은 인공지능의 올바르고 윤리적인 사용에 대한 전문성을 갖춘 비영리 단체, 산업 협회, 연구 기관과 같은 신뢰할 수 있는 기관들과 파트너십을 구축하기 위해 노력하고 있습니다. 우리는 윤리적인 인공지능 활용 방안에 대한 이들 기관의 자문을 정기적으로 구하고, 그들의 권고사항을 정책 및 절차에 반영할 것입니다. (예: Code for America, Black Wealth Data Center, Data Equity 등)
- 투명성을 유지하십시오: PCV와 임직원은 이해관계자, 고객 및 지역사회에 인공지능(AI) 사용의 투명성을 보장해야 합니다. AI 시스템 및 도구의 사용 목적, 한계점, 그리고 이해관계자에게 미칠 수 있는 잠재적 영향에 대해 명확하게 소통할 것입니다. 또한 AI 사용과 관련된 의견 및 우려 사항을 접수할 수 있는 채널을 마련할 것입니다.
- 지속적인 개선에 전념하십시오: PCV는 변화하는 트렌드, 모범 사례 및 새로운 위험을 반영하여 AI의 윤리적 사용에 관한 정책을 정기적으로 검토하고 업데이트할 것입니다. 또한 본 정책이 업계 표준, 규제 요건, 그리고 당사의 가치 및 사명에 부합하도록 최선을 다할 것입니다.
- 편향 측정: PCV는 여성, 유색인종, 저소득층 비율과 같은 핵심성과지표(KPI)를 사용하여 잠재적 편견을 측정하고 추적할 것입니다.
- 데이터 개편 워킹 그룹: PCV는 Downhome이나 Qooper와 같은 플랫폼에 적용하는 것과 동일한 데이터 거버넌스 원칙을 생성형 AI 도구에도 적용할 것입니다. 우려 사항이 있을 경우 내부 실무 그룹에서 논의하여 이해관계자들과 검토할 예정입니다.
- 시험 승인: 새로운 AI 및 ML 도구를 테스트하는 직원은 최고 데이터 책임자(CDO)와 CEO에게 승인 요청서를 제출하고, 테스트하려는 사용 사례, PCV에 대한 예상 결과 또는 부가가치, 그리고 위의 지침을 어떻게 준수하는지 명확히 설명해야 합니다. 또한 외부 컨설턴트에게도 이 정책을 명확히 설명하고, 외부 MOU에 포함시켜 확인 서명을 받아야 합니다. 어떠한 조치를 취하기 전에도 CEO와 CDO의 명시적인 서면 승인을 받아야 합니다.
- AI 도구를 활용한 자동 완성: AI 도구는 이메일, Microsoft Office 애플리케이션, 코딩 플랫폼과 같은 일상적인 애플리케이션 및 소프트웨어에 점점 더 많이 통합되고 있습니다. 자동 완성 기능 또는 "지능형 추천" 기능은 이제 대부분의 애플리케이션에 포함되어 효율성을 높이는 데 도움을 줍니다. PCV 직원은 Word, Excel, PowerPoint, 이메일 및 기타 자주 사용하는 애플리케이션에서 자동 완성 기능을 사용할 수 있지만, 자동 완성된 내용의 정확성을 검토해야 합니다. 자동 완성된 코드(예: 데이터 분석 또는 알고리즘 구축을 위해 Python 또는 R을 작성할 때)는 권장하지 않습니다. 자동 생성된 코드는 종종 지름길을 제안하고, 임무 기반 사용 사례를 완전히 이해하지 못하며, 코드 검토 시 논리를 해석하기 어려운 일련의 단계를 생성하기 때문입니다. 코드 완성 도구를 사용하는 경우 개발자는 모든 논리, 구문 및 출력의 정확성을 확인해야 하며, 자동 완성 기능을 사용한 코드에는 주석을 추가해야 합니다. 내부 또는 외부 이해관계자에게 부정확하거나 오해의 소지가 있거나 왜곡된 내용이 전달된 경우, 자동 완성 도구를 탓하는 것은 용납되지 않습니다. PCV의 모든 직원은 자동 완성 기능 사용 여부와 관계없이 개인적으로 작성한 콘텐츠에 대해 개인적인 책임을 집니다.
PCV와 임직원들은 이 정책을 채택함으로써 인공지능의 윤리적 사용을 장려하고 모든 이해관계자 간의 신뢰를 구축하고자 합니다. 책임감 있고 윤리적인 인공지능 사용은 고객에게 가치를 창출하고, 업무 효율성을 높이며, 소외된 지역사회의 혁신, 성장 및 발전에 기여한다고 믿습니다.
PCV 직원들은 이 정책을 수립하는 과정에서 다음과 같은 틀, 기사 및 전문가들을 참고했습니다.
- “"인공지능은 근본적으로 시민권과 양립할 수 없다" - 비비안 밍 박사, 소코스 랩(어반 인스티튜트 소속), 2017년, https://www.youtube.com/watch?v=Cm7IJiokqz8
- “"이것은 산업혁명이 아니다", 비비안 밍 박사, 소코스 아카데미, 2018., https://academy.socos.org/not-the-ir/
- “우리에게 필요한 건 AI 선언문이 아니라 헌법이다.” - 비비안 밍 박사, 파이낸셜 타임스, https://www.ft.com/content/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063
- “기술 전문가 비비안 밍: AI는 인권이다”, 비비안 밍 박사, 가디언, 2018., https://www.theguardian.com/technology/2018/dec/07/technologist-vivienne-ming-ai-inequality-silicon-valley
- “인간이 주도하는 AI: 인간적인 접근으로 AI에 대한 신뢰 구축”, 세일즈포스 윤리 및 인도적 사용 사무국, 2024년, https://humanatthehelm.splashthat.com/
- “데이터 형평성 프레임워크”, 위 올 카운트, 2022, https://weallcount.com/the-data-process/
- “기술의 책임 있는 사용”, 세계경제포럼, 2019년, https://www3.weforum.org/docs/WEF_Responsible_Use_of_Technology.pdf
- “"제4차 산업혁명: 그 의미와 대응 방안", 클라우스 슈왑, 세계경제포럼, https://www.weforum.org/stories/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
- “인공지능 권리장전 청사진”, 백악관, 2023년, https://www.whitehouse.gov/ostp/ai-bill-of-rights/
- “미국 국립표준기술연구소(NIST)의 "인공지능 위험 관리 프레임워크", 2023년., https://www.nist.gov/itl/ai-risk-management-framework
- “책임감 있는 AI 혁신을 촉진하기 위한 마이크로소프트의 자발적 약속”, 마이크로소프트, 2023, https://blogs.microsoft.com/on-the-issues/2023/07/21/commitment-safe-secure-ai/
이 정책은 지난 2년간 PCV 내 여러 부서가 참여하는 데이터 거버넌스 실무 그룹의 일환으로 작성되었으며, PCV 자문 위원회 위원이자 캘리포니아 버클리에 있는 소코스 랩(Socos Labs) 소속의 윤리적 인공지능 전문가인 비비안 밍 박사의 지원을 받았습니다.