Chính sách AI
Chính sách của Pacific Community Ventures (PCV) về việc sử dụng trí tuệ nhân tạo và máy học một cách có trách nhiệm và đạo đức
Tháng 8 năm 2025
Các đồng nghiệp, đối tác trong ngành và những người ủng hộ của PCV,
Nền văn minh nhân loại đã bước vào một kỷ nguyên mới, kỷ nguyên thứ 4.th Cuộc cách mạng công nghiệp, với những đổi mới công nghệ như trí tuệ nhân tạo (AI) và máy học (ML), mang lại sức mạnh và tiềm năng để tối ưu hóa hoạt động kinh doanh, tạo ra ý tưởng và nội dung, cũng như xử lý lượng thông tin khổng lồ với tốc độ vượt xa khả năng của con người.
PCV từ lâu đã là một tổ chức hoạt động dựa trên dữ liệu, kết hợp “công nghệ cao và sự quan tâm chu đáo”, được thành lập như một trong những tổ chức đầu tư tác động xã hội đầu tiên của đất nước. PCV cam kết đầu tư vào niềm đam mê và khả năng phục hồi của các doanh nhân kinh doanh nhỏ, giúp họ tạo ra những công việc chất lượng tốt và thúc đẩy sự dịch chuyển kinh tế cũng như phúc lợi tài chính, đồng thời nâng cao đời sống của các cộng đồng vốn bị bỏ quên trong lịch sử. PCV cũng là một tổ chức tài chính phát triển cộng đồng (CDFI) được chứng nhận bởi liên bang và tiểu bang, một lĩnh vực ra đời từ phong trào Dân quyền như trụ cột của công bằng kinh tế, hơn 30 năm trước sau khi chính phủ liên bang thừa nhận sự phân biệt đối xử và phân vùng bất công trong ngành tài chính chính thức.
Chúng tôi thừa nhận những vấn đề đạo đức tiềm tàng mà trí tuệ nhân tạo (AI) đặt ra, cũng như tác động, cả tích cực và tiêu cực, mà nó có thể gây ra đối với nhân viên, khách hàng và cộng đồng của chúng tôi. Chúng tôi đang tiếp tục nghiên cứu và tìm hiểu về sự thiên vị thuật toán do AI gây ra trong những năm gần đây, đặc biệt là trong các ngành nhạy cảm có liên quan đến lĩnh vực của chúng tôi – chẳng hạn như các quyết định tài chính, tuyển dụng và tư pháp hình sự.
Do đó, chúng tôi cam kết xây dựng và thực hiện một chính sách toàn diện về việc sử dụng trí tuệ nhân tạo và học máy một cách có đạo đức, phù hợp với các giá trị, sứ mệnh và mục tiêu của công ty chúng tôi. Chúng tôi tin rằng các quyết định sử dụng bất kỳ ứng dụng, công cụ, phương pháp hoặc hệ thống trí tuệ nhân tạo nào đều phải tuân thủ sự đồng thuận của cá nhân và cộng đồng, quyền tự chủ và bảo mật dữ liệu, cũng như tôn trọng quyền tự quyết và phẩm giá của con người.
Do đó, trong việc sử dụng các công nghệ AI và ML, PCV tuân thủ nghiêm ngặt đến những điều sau đây sáu nguyên tắc cốt lõi:
- Chúng ta phải đảm bảo rằng những lợi ích mà trí tuệ nhân tạo mang lại sẽ giảm thiểu tối đa tác hại gây ra, và nó không được gây hại cho bất kỳ nhóm hoặc cá nhân cụ thể nào một cách không cân xứng.
- Chúng ta phải lựa chọn hoặc phát triển trí tuệ nhân tạo (AI) được đào tạo trên dữ liệu phân tách theo nhân khẩu học để ngăn chặn sự phân biệt đối xử hoặc gây hại không cân xứng đối với bất kỳ cá nhân hoặc nhóm người nào do việc sử dụng hệ thống AI đó gây ra. Chúng tôi thừa nhận rằng các thuật toán được đào tạo mà không có dữ liệu nhân khẩu học cân bằng theo tỷ lệ hầu như luôn hoạt động kém hiệu quả hơn đối với khách hàng có thu nhập thấp hoặc khách hàng thuộc các nhóm thiểu số, cũng như người nhập cư và các nhóm người thiệt thòi khác.
- Hệ thống trí tuệ nhân tạo (AI) tuyệt đối không được sử dụng để phân biệt đối xử hoặc loại trừ khách hàng cá nhân hoặc nhóm người nào đó trong quá trình kinh doanh. Hệ thống AI bao gồm, nhưng không giới hạn ở, các mô hình dự đoán, thuật toán đối sánh, chatbot hỗ trợ khách hàng, công cụ đề xuất, nội dung tự động tạo cho tiếp thị và truyền thông, các công cụ và kịch bản để tự động hóa các tác vụ hành chính (ví dụ: tài chính, xử lý khoản vay và báo cáo) và nhiều hệ thống khác.
- Các hệ thống AI được sử dụng tại PCV phải luôn ưu tiên và bảo vệ quyền riêng tư và quyền dữ liệu của khách hàng, nhằm bảo vệ dữ liệu khỏi bị lạm dụng hoặc độc quyền. Và Để đảm bảo chúng tôi tuân thủ luật bảo mật thông tin ở cấp độ khoản vay theo đúng nghĩa vụ của một tổ chức tài chính phát triển cộng đồng (CDFI). Khách hàng bao gồm các doanh nhân kinh doanh nhỏ mà chúng tôi, với tư cách là CDFI, đầu tư vào và người lao động của họ. Khách hàng tiềm năng bao gồm các CDFI khác hoặc các tổ chức hướng đến sứ mệnh mà PCV hỗ trợ trong vai trò là đơn vị xây dựng năng lực về dữ liệu, phân tích, học máy (ML) và trí tuệ nhân tạo (AI). PCV cam kết bảo vệ nghiêm ngặt dữ liệu khách hàng và người sử dụng dịch vụ, mọi lúc, bằng cách duy trì dữ liệu này trong môi trường được bảo vệ bởi tường lửa, tách biệt với dữ liệu chương trình khác.
- Hệ thống trí tuệ nhân tạo nên được sử dụng để thông báo và ủng hộ Phân tích và ra quyết định mang tính phê phán của con người không bao giờ được thực hiện mà không có sự giám sát hoặc hoạt động như một hệ thống tự động (tức là không được loại bỏ con người khỏi quy trình hoặc vòng lặp ra quyết định).
- Chúng tôi sẽ không sử dụng trí tuệ nhân tạo tự động để đưa ra quyết định cho vay hoặc các quyết định quan trọng khác nếu không có sự thay đổi chính sách này và sự chấp thuận của Giám đốc điều hành. Các quyết định quan trọng bao gồm nhưng không giới hạn ở những điều sau:
- Xác định ai sẽ được nhận và ai không được nhận khoản vay.
- Xác định ai sẽ nhận được và ai không nhận được hỗ trợ tư vấn kinh doanh.
- Xác định đối tượng mà chúng ta sẽ thông báo về các sản phẩm, dịch vụ và cơ hội mới, chẳng hạn như tham gia vào một nghiên cứu, một chương trình thí điểm mới hoặc bất kỳ hình thức ưu đãi nào.
- Nếu một quyết định được hỗ trợ bởi AI gây ra bất kỳ nghi ngờ nào, hãy luôn đảm bảo rằng không nhóm nào bị cấm sử dụng sản phẩm hoặc dịch vụ của PCV mà không có lý do chính đáng hoặc không có cơ sở lý luận khách quan. Luôn đảm bảo rằng không thông tin nào bị giấu giếm khỏi một nhóm hoặc nhiều nhóm cụ thể mà không có cơ sở lý luận khách quan.
Vì các thuật toán được huấn luyện trên các tập dữ liệu lớn về các quyết định cho vay, tuyển dụng và tư pháp hình sự, vốn sử dụng định nghĩa về “rủi ro” mà trong lịch sử đã loại trừ người thu nhập thấp và người da màu, chúng tôi cảm thấy cần phải đặc biệt thận trọng về các trường hợp sử dụng và các biện pháp kiểm soát mà chúng tôi đặt ra để thử nghiệm chúng trong PCV và ngành của chúng tôi. Chúng tôi nhận thức rằng những công nghệ mới này có thể dễ dàng xóa bỏ những thành quả mà chúng tôi đã đạt được cho đến nay với phương pháp tiếp cận công nghệ cao kết hợp với sự tương tác trực tiếp và đẩy nhanh sự thiên vị trong lĩnh vực của chúng tôi ở quy mô và tốc độ mà chúng tôi có thể không bao giờ giải quyết được trước khi những tác động tiêu cực được củng cố sâu sắc.
Chúng tôi nhận thức rằng những gì chúng tôi làm với tư cách là một CDFI, một nhà đầu tư tác động, một tổ chức phát triển cộng đồng – về mặt Làm sao Việc chúng tôi triển khai AI ngay bây giờ sẽ tạo tiền lệ cho lĩnh vực này trong nhiều năm tới. Khi chúng tôi tăng cường năng lực công nghệ và AI trong PCV, chúng tôi cam kết chia sẻ những bài học kinh nghiệm với hệ sinh thái CDFI và tác động xã hội, ủng hộ các thực tiễn dựa trên bằng chứng, đặt khách hàng và tiếng nói cộng đồng làm trung tâm, bảo vệ chống lại sự thiên vị, hạn chế sự biến động của thị trường, ngăn ngừa sự loại trừ và đảm bảo chúng tôi tìm kiếm sự đồng thuận rõ ràng của những người mà chúng tôi và các đối tác của chúng tôi phục vụ.
Khi hợp tác với các tổ chức tài chính phát triển cộng đồng (CDFI) và các tổ chức khác cùng chí hướng, chúng ta cần chia sẻ các giá trị và các thông số mà chúng ta coi là những ứng dụng chấp nhận được của trí tuệ nhân tạo (AI) (chi tiết bên dưới). Nếu trong quá trình hợp tác, chúng ta nhận thấy sự khác biệt về các giá trị và thông số này, chúng ta sẽ thực hiện quyền chấm dứt hợp tác. Đối với những tổ chức mà chúng ta đạt được sự đồng thuận, chúng ta sẽ cùng nhau xây dựng một cộng đồng thực hành có thể giúp phổ biến các tiêu chuẩn AI nhằm nâng cao phẩm giá con người cho tất cả mọi người, đặc biệt là các nhóm dân cư thiệt thòi.
Các hướng dẫn cụ thể hơn như sau:
- Luôn ghi nhận việc sử dụng AI.: Bất cứ khi nào trí tuệ nhân tạo (AI) hỗ trợ việc tạo nội dung để cùng viết một bài báo hoặc để tạo ra toàn bộ nội dung, người lao động phải đảm bảo ghi nhận đầy đủ công lao của hệ thống hoặc công cụ AI đã sử dụng. Điều này phải được thực hiện bằng cách thêm chú thích hoặc các chỉ dẫn khác trong tài liệu hoặc ấn phẩm.
- Đảm bảo quyền riêng tư dữ liệu: PCV nhận thức được tầm quan trọng của việc bảo vệ dữ liệu khách hàng nhạy cảm và thông tin bí mật của công ty khi đưa dữ liệu vào các ứng dụng AI. Trước khi sử dụng bất kỳ công cụ AI nào, nhân viên phải xem xét kỹ các điều khoản về bảo mật dữ liệu đi kèm và phải được sự chấp thuận của Giám đốc Dữ liệu và Giám đốc điều hành trước khi bắt đầu sử dụng (xem bên dưới). PCV sẽ đảm bảo các biện pháp bảo mật thích hợp được áp dụng, chẳng hạn như ẩn danh dữ liệu, mã hóa, công cụ bổ trợ và kiểm soát truy cập (để giảm thiểu rủi ro từ các công cụ của bên thứ ba), nhằm ngăn chặn việc truy cập hoặc sử dụng thông tin trái phép.
- Hãy thận trọng khi đưa ra quyết định.: PCV nhận thức rằng trí tuệ nhân tạo (AI) có thể tự động hóa các quy trình tiêu chuẩn dẫn đến việc ra quyết định. Tuy nhiên, chúng ta phải thận trọng và đảm bảo rằng sự giám sát của con người là một phần có chủ đích của quy trình để tránh các quyết định thiên vị hoặc phân biệt đối xử. PCV và các nhân viên cam kết thường xuyên xem xét các hệ thống và công cụ AI được sử dụng để đảm bảo tính chính xác, công bằng và minh bạch. PCV sẽ cung cấp đào tạo cho nhân viên về việc sử dụng AI một cách có đạo đức – để đảm bảo rằng nó được tận dụng để cung cấp thông tin và hỗ trợ việc ra quyết định của con người, chứ không phải thay thế nó.
- Hợp tác với các tổ chức uy tín: Ban lãnh đạo cấp cao của PCV đang nỗ lực thiết lập quan hệ đối tác với các tổ chức đáng tin cậy, chẳng hạn như các tổ chức phi lợi nhuận, hiệp hội ngành nghề và viện nghiên cứu, những đơn vị có chuyên môn về việc sử dụng trí tuệ nhân tạo (AI) một cách đúng đắn và có đạo đức. Chúng tôi sẽ thường xuyên tìm kiếm sự hướng dẫn của họ về các thực tiễn AI có đạo đức và sẽ tích hợp các khuyến nghị của họ vào các chính sách và quy trình của chúng tôi. (Ví dụ: Code for America, Black Wealth Data Center, Data Equity, v.v.)
- Hãy duy trì tính minh bạch: PCV và các nhân viên của mình phải đảm bảo việc sử dụng trí tuệ nhân tạo (AI) được minh bạch đối với các bên liên quan, khách hàng và cộng đồng. Chúng tôi sẽ truyền đạt rõ ràng mục đích sử dụng các hệ thống và công cụ AI, những hạn chế của chúng và bất kỳ tác động tiềm tàng nào đối với các bên liên quan. Chúng tôi cũng sẽ cung cấp kênh để phản hồi và nêu lên những lo ngại liên quan đến việc sử dụng AI.
- Cam kết cải tiến liên tục: PCV sẽ thường xuyên xem xét và cập nhật chính sách của chúng tôi về việc sử dụng AI một cách có đạo đức để phản ánh các xu hướng thay đổi, các thực tiễn tốt nhất và các rủi ro mới nổi. Chúng tôi sẽ đảm bảo rằng chính sách của chúng tôi phù hợp với các tiêu chuẩn ngành, các yêu cầu pháp lý và các giá trị cũng như sứ mệnh của công ty chúng tôi.
- Đo lường sự thiên vị: PCV sẽ sử dụng các chỉ số KPI như tỷ lệ phụ nữ, người da màu và người có thu nhập thấp, trung bình để đo lường và theo dõi khả năng thiên vị.
- Nhóm làm việc cải tiến dữ liệu: PCV sẽ áp dụng các quy trình quản trị dữ liệu tương tự cho các công cụ AI tạo sinh như đối với các nền tảng như Downhome hoặc Qooper. Mọi lo ngại sẽ được nêu ra trong Nhóm làm việc nội bộ để thảo luận với các bên liên quan.
- Phê duyệt cho việc kiểm tra: Các nhân viên thử nghiệm các công cụ AI và ML mới cần gửi yêu cầu xin phép đến Giám đốc Dữ liệu và Giám đốc điều hành, làm rõ trường hợp sử dụng mà họ muốn thử nghiệm, kết quả dự kiến hoặc giá trị gia tăng mà PCV sẽ nhận được, và cách họ tuân thủ các hướng dẫn nêu trên. Họ cũng cần làm rõ chính sách này với bất kỳ nhà tư vấn bên ngoài nào, đưa vào các biên bản ghi nhớ bên ngoài và nhận được chữ ký xác nhận. Họ phải có sự chấp thuận bằng văn bản rõ ràng từ Giám đốc điều hành và Giám đốc Dữ liệu trước khi thực hiện bất kỳ hành động nào.
- Sử dụng các công cụ AI để tự động hoàn thành: Các công cụ AI ngày càng được tích hợp vào các ứng dụng và phần mềm hàng ngày như email, ứng dụng Microsoft Office và nền tảng lập trình. Tính năng tự động hoàn thành, hay “đề xuất thông minh”, hiện có mặt trong hầu hết các ứng dụng và nhằm mục đích tạo ra hiệu quả. Nhân viên PCV được phép sử dụng chức năng tự động hoàn thành trong Word, Excel, PowerPoint, email và các ứng dụng thường dùng khác nhưng phải xem lại nội dung được tự động hoàn thành để đảm bảo tính chính xác. Việc sử dụng mã tự động hoàn thành (ví dụ: khi viết mã Python hoặc R trong quá trình phân tích dữ liệu hoặc xây dựng thuật toán) không được khuyến khích, vì mã được tạo tự động thường đề xuất các lối tắt, không hiểu đầy đủ các trường hợp sử dụng dựa trên nhiệm vụ và tạo ra một loạt các bước mà logic của chúng có thể khó hiểu trong quá trình xem xét mã. Nếu sử dụng các công cụ hoàn thành mã, nhà phát triển phải kiểm tra tất cả logic, cú pháp và đầu ra để đảm bảo tính chính xác, VÀ cung cấp chú thích trong mã nơi đã sử dụng tính năng tự động hoàn thành. Trong trường hợp nội dung không chính xác, gây hiểu nhầm hoặc “ảo tưởng” được cung cấp – cho dù là cho các bên liên quan nội bộ hay bên ngoài – việc đổ lỗi cho các công cụ tự động hoàn thành sẽ không được chấp nhận. Tất cả nhân viên của PCV đều phải chịu trách nhiệm cá nhân về nội dung mà họ tạo ra, dù có sử dụng tính năng tự động hoàn thành hay không.
Bằng việc áp dụng chính sách này, PCV và các nhân viên của mình hướng đến việc thúc đẩy sử dụng trí tuệ nhân tạo (AI) một cách có đạo đức và xây dựng lòng tin giữa tất cả các bên liên quan. Chúng tôi tin rằng việc sử dụng AI một cách có trách nhiệm và đạo đức sẽ tạo ra giá trị cho khách hàng, mang lại hiệu quả cho quy trình làm việc của chúng tôi và góp phần vào sự đổi mới, tăng trưởng và kết quả tích cực cho các cộng đồng chưa được phục vụ đầy đủ.
Trong quá trình xây dựng chính sách này, đội ngũ nhân viên của PCV đã tham khảo các khuôn khổ, bài báo và ý kiến chuyên gia sau:
- “Trí tuệ nhân tạo về cơ bản không tương thích với quyền công dân”, Tiến sĩ Vivienne Ming, Socos Labs thuộc Viện Đô thị, 2017., https://www.youtube.com/watch?v=Cm7IJiokqz8
- “Đây không phải là cuộc Cách mạng Công nghiệp”, Tiến sĩ Vivienne Ming, Học viện Socos, 2018., https://academy.socos.org/not-the-ir/
- “Chúng ta không cần một bản tuyên ngôn về trí tuệ nhân tạo — chúng ta cần một bản hiến pháp”, Tiến sĩ Vivienne Ming, Financial Times., https://www.ft.com/content/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063
- “Nhà công nghệ Vivienne Ming: Trí tuệ nhân tạo là một quyền con người”, Tiến sĩ Vivienne Ming, The Guardian, 2018., https://www.theguardian.com/technology/2018/dec/07/technologist-vivienne-ming-ai-inequality-silicon-valley
- “Con người là người dẫn đầu: Xây dựng niềm tin vào AI bằng sự thấu hiểu con người”, Văn phòng Sử dụng có đạo đức và nhân văn của Salesforce, 2024., https://humanatthehelm.splashthat.com/
- “Khung công bằng dữ liệu”, Tất cả chúng ta đều được tính đến, 2022, https://weallcount.com/the-data-process/
- “Sử dụng công nghệ một cách có trách nhiệm”, Diễn đàn Kinh tế Thế giới, 2019., https://www3.weforum.org/docs/WEF_Responsible_Use_of_Technology.pdf
- “Cuộc cách mạng công nghiệp lần thứ tư: ý nghĩa của nó là gì và cách ứng phó như thế nào”, Klaus Schwab, Diễn đàn Kinh tế Thế giới., https://www.weforum.org/stories/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
- “Bản kế hoạch chi tiết cho Tuyên ngôn Nhân quyền của Trí tuệ Nhân tạo”, Nhà Trắng, 2023., https://www.whitehouse.gov/ostp/ai-bill-of-rights/
- “Khung quản lý rủi ro trí tuệ nhân tạo”, Viện Tiêu chuẩn và Công nghệ Quốc gia, 2023., https://www.nist.gov/itl/ai-risk-management-framework
- “Cam kết tự nguyện của Microsoft nhằm thúc đẩy đổi mới trí tuệ nhân tạo có trách nhiệm”, Microsoft, 2023., https://blogs.microsoft.com/on-the-issues/2023/07/21/commitment-safe-secure-ai/
Chính sách này được soạn thảo như một phần của nhóm làm việc về quản trị dữ liệu liên ngành trong PCV trong hai năm qua, với sự hỗ trợ từ thành viên Hội đồng Cố vấn PCV, Tiến sĩ Vivienne Ming – một chuyên gia về Trí tuệ Nhân tạo có đạo đức đến từ Socos Labs, Berkeley, CA.