Política de IA
Política de Pacific Community Ventures (PCV) que rige el uso responsable y ético de la inteligencia artificial y el aprendizaje automático
Agosto de 2025
Estimados colegas, socios de la industria y simpatizantes del PCV:,
La civilización humana ha entrado en una nueva era, la 4el revolución industrial, de innovación tecnológica como la inteligencia artificial (IA) y el aprendizaje automático (ML), que aportan el poder y el potencial para agilizar nuestras operaciones comerciales, generar ideas y contenido y procesar vasta información a velocidades que superan la capacidad humana.
PCV ha sido durante mucho tiempo una organización basada en datos, de alta tecnología y contacto directo, fundada como una de las primeras organizaciones de inversión de impacto del país. PCV se dedica a invertir en la pasión y la resiliencia de los pequeños emprendedores, ayudándolos a crear empleos de calidad y a impulsar la movilidad económica y el bienestar financiero, a la vez que impulsa a comunidades históricamente desatendidas. PCV también es una institución financiera de desarrollo comunitario (CDFI) con certificación federal y estatal, un sector que surgió del movimiento por los Derechos Civiles como pilar de la justicia económica hace más de 30 años, tras el reconocimiento federal de la discriminación y la segregación laboral en el sector financiero formal.
Reconocemos los posibles problemas éticos que plantea la IA y el impacto, tanto positivo como negativo, que puede tener en nuestros empleados, clientes y comunidades. Seguimos investigando y comprendiendo el sesgo algorítmico perpetuado por la IA en los últimos años, especialmente en sectores sensibles al nuestro, como las decisiones financieras, la contratación y la justicia penal.
Por lo tanto, nos comprometemos a desarrollar e implementar una política integral en torno al uso ético de la IA y el ML que se alinee con los valores, la misión y los objetivos de nuestra empresa. Creemos que las decisiones de aprovechar cualquier aplicación, herramienta, metodología o sistema de IA deben respetar el consentimiento individual y comunitario, la autonomía y la privacidad de los datos y el respeto por la autonomía y la dignidad humanas.
Por lo tanto, en el uso de tecnologías de IA y ML, PCV se adhiere estrictamente a lo siguiente seis principios fundamentales:
- Debemos asegurarnos de que los beneficios de la IA utilizada minimicen el daño creado, y no debe dañar a ningún grupo o individuo en particular de manera desproporcionada.
- Debemos seleccionar o desarrollar una IA entrenada con datos demográficos desagregados para evitar la discriminación o daños desproporcionados a cualquier persona o grupo de personas mediante el uso de dicho sistema. Reconocemos que los algoritmos entrenados sin una demografía proporcionalmente equilibrada casi siempre tienen un peor rendimiento para clientes de bajos ingresos o de color, así como para inmigrantes y otros grupos desfavorecidos.
- El sistema de IA nunca debe utilizarse para discriminar o excluir a clientes individuales o grupos de personas durante el desarrollo de las operaciones comerciales. Los sistemas de IA incluyen, entre otros, modelos predictivos, algoritmos de coincidencia, chatbots de soporte técnico, motores de recomendación, contenido generado automáticamente para marketing y comunicaciones, herramientas y scripts para automatizar tareas administrativas (por ejemplo, finanzas, procesamiento de préstamos e informes), entre otros.
- Los sistemas de IA utilizados en PCV deben priorizar y salvaguardar en todo momento la privacidad y los derechos de los datos de los clientes, tanto para proteger los datos del abuso como de la monopolización. y Para garantizar que cumplimos con la legislación de privacidad de préstamos, como estamos obligados como CDFI. Nuestros clientes incluyen a los pequeños empresarios en los que invertimos como CDFI y a sus trabajadores. También incluyen otras CDFI u organizaciones con una misión específica a las que PCV apoya como generadoras de capacidades en datos, análisis, aprendizaje automático e inteligencia artificial. PCV se compromete a proteger estrictamente los datos de sus clientes en todo momento, manteniéndolos en un entorno protegido con cortafuegos, separados de otros datos del programa.
- El sistema de IA debería utilizarse para informar y apoyo análisis crítico y toma de decisiones humanas y nunca debe dejar de ser supervisado ni actuar como un sistema autónomo (es decir, no debe eliminar a los humanos del proceso o del ciclo de toma de decisiones).
- No utilizaremos IA autónoma para tomar decisiones de préstamos ni otras decisiones importantes sin modificar esta política y obtener la aprobación del director ejecutivo. Las decisiones importantes incluyen, entre otras, las siguientes:
- Determinar quién recibirá y quién no recibirá un préstamo.
- Determinar quién recibirá y quién no recibirá apoyo de asesoría empresarial.
- Determinar a quién informaremos sobre nuestros productos, servicios y nuevas oportunidades, como participar en un estudio, un nuevo programa piloto o incentivos de cualquier tipo.
- Si una decisión basada en IA genera alguna duda, asegúrese siempre de que ningún grupo sea excluido de un producto o servicio de PCV sin causa o sin una justificación objetiva. Asegúrese siempre de que no se oculte información a ningún grupo en particular, nuevamente, sin una justificación objetiva.
Dado que los algoritmos se entrenan con grandes conjuntos de datos sobre préstamos, contratación y decisiones de justicia penal que emplean una definición de "riesgo" que históricamente ha excluido a las personas de bajos ingresos y a las personas de color, consideramos que debemos ser especialmente cuidadosos con los casos de uso y las medidas de seguridad que implementamos para probarlos en PCV y en nuestro sector. Reconocemos que estas nuevas tecnologías pueden fácilmente anular los avances que hemos logrado hasta la fecha con nuestro enfoque de alta tecnología y contacto directo, y acelerar los sesgos en nuestro campo a una escala y velocidad que quizá nunca podamos abordar antes de que los impactos adversos se agudicen profundamente.
Reconocemos que lo que hacemos como CDFI, un inversionista de impacto, una organización de desarrollo comunitario, en términos de cómo Implementamos IA ahora: sentaremos un precedente para el sector en los próximos años. A medida que aumentamos nuestras capacidades tecnológicas y de IA dentro de PCV, nos comprometemos a compartir los aprendizajes con las CDFI y el ecosistema de impacto, a promover prácticas basadas en la evidencia que prioricen las voces de los clientes y la comunidad, a proteger contra sesgos, a limitar las desviaciones del mercado, a prevenir la exclusión y a asegurarnos de obtener el consentimiento explícito de quienes servimos, tanto nosotros como nuestros colegas.
Al colaborar con instituciones financieras comunitarias similares y otras organizaciones con una misión específica, debemos compartir nuestros valores y los parámetros que consideramos aceptables para el uso de la IA (detallados a continuación). Si durante la colaboración observamos divergencias en estos valores y parámetros, nos reservamos el derecho de disolverla. Con aquellas organizaciones con las que nos alineemos, trabajaremos para construir una comunidad de práctica que ayude a difundir estándares de IA que promuevan la dignidad humana para todos, especialmente para las poblaciones desatendidas.
A continuación se presentan pautas más específicas:
- Siempre reconozca el uso de IA: Siempre que la IA asista en la creación de contenido para ser coautor de un texto o para crearlo íntegramente, el empleado debe asegurarse de que se otorgue el crédito correspondiente al sistema o herramienta de IA utilizada. Esto debe hacerse mediante una nota al pie u otras indicaciones en el documento o publicación.
- Garantizar la privacidad de los datos: PCV reconoce la importancia de proteger los datos sensibles de los clientes y la información confidencial de la empresa al introducir material en las aplicaciones de IA. Antes de utilizar cualquier herramienta de IA, el empleado debe revisar la documentación adjunta sobre seguridad de datos y obtener la aprobación del Director de Datos y del Director General antes de iniciar su uso (véase más adelante). PCV se asegurará de que se implementen las medidas de seguridad adecuadas, como la anonimización de datos, el cifrado, las herramientas complementarias y los controles de acceso (para mitigar el uso de herramientas de terceros), para evitar el acceso o uso no autorizado de dicha información.
- Tenga cuidado al tomar decisiones: PCV reconoce que la IA puede automatizar los procesos estándar que conducen a la toma de decisiones. Sin embargo, debemos ser cautelosos y asegurar que la supervisión humana sea una parte intencional del proceso para evitar decisiones sesgadas o discriminatorias. PCV y sus empleados se comprometen a revisar periódicamente los sistemas y herramientas de IA utilizados para garantizar su precisión, imparcialidad y transparencia. PCV capacitará a sus empleados sobre el uso ético de la IA para garantizar que se utilice para informar y apoyar la toma de decisiones humana, no para sustituirla.
- Asociarse con instituciones confiables: La alta dirección de PCV trabaja para establecer alianzas con instituciones de confianza, como organizaciones sin fines de lucro, asociaciones industriales e instituciones de investigación, expertas en el uso adecuado y ético de la IA. Solicitaremos periódicamente su orientación sobre prácticas éticas de IA e incorporaremos sus recomendaciones en nuestras políticas y procedimientos. (Por ejemplo, Code for America, Black Wealth Data Center, Data Equity, etc.)
- Defender la transparencia: PCV y sus empleados deben garantizar la transparencia en el uso de la IA para nuestros grupos de interés, clientes y comunidades. Comunicaremos claramente el uso previsto de los sistemas y herramientas de IA, sus limitaciones y cualquier posible impacto en los grupos de interés. También facilitaremos un canal para la retroalimentación y las inquietudes relacionadas con el uso de la IA.
- Comprometerse con la mejora continua: PCV revisará y actualizará periódicamente nuestra política sobre el uso ético de la IA para reflejar las tendencias cambiantes, las mejores prácticas y los riesgos emergentes. Nos aseguraremos de que nuestra política se ajuste a los estándares de la industria, los requisitos regulatorios y los valores y la misión de nuestra empresa.
- Medición del sesgo: PCV utilizará KPI como porcentajes de identificación de mujeres, BIPOC y LMI para medir y rastrear posibles sesgos.
- Grupo de trabajo de modernización de datos: PCV aplicará a las herramientas de IA generativa las mismas prácticas de gobernanza de datos que a plataformas como Downhome o Qooper. Cualquier inquietud se abordará en el grupo de trabajo interno para su análisis con las partes interesadas.
- Aprobaciones para pruebas: El personal que prueba nuevas herramientas de IA y ML debe solicitar permiso al Director de Datos y al Director Ejecutivo (CEO), aclarar el caso de uso que desea probar, el resultado o valor añadido previsto para PCV y cómo se adhiere a las directrices mencionadas. También debe aclarar esta política con los consultores externos, incorporarla en memorandos de entendimiento externos y recibir una firma de confirmación. Debe contar con la aprobación explícita por escrito del CEO y del CDO antes de tomar cualquier medida.
- Uso de herramientas de IA para autocompletar: Las herramientas de IA se integran cada vez más en aplicaciones y software cotidianos, como el correo electrónico, las aplicaciones de Microsoft Office y las plataformas de programación. Las funciones de autocompletado, o "recomendaciones inteligentes", ya se incluyen en la mayoría de las aplicaciones y su objetivo es aumentar la eficiencia. Los empleados de PCV pueden utilizar la función de autocompletado en Word, Excel, PowerPoint, correo electrónico y otras aplicaciones de uso frecuente, pero deben revisar el contenido autocompletado para garantizar su precisión. Se desaconseja el código autocompletado (por ejemplo, al escribir en Python o R, al realizar análisis de datos o al crear algoritmos), ya que el código autogenerado suele sugerir atajos, no comprende completamente los casos de uso específicos de la misión y crea una serie de pasos cuya lógica puede ser difícil de interpretar durante las revisiones de código. Si se utilizan herramientas de autocompletado, el desarrollador debe comprobar la precisión de toda la lógica, la sintaxis y los resultados, así como proporcionar comentarios en el código donde se utilizó el autocompletado. En los casos en que se entregue contenido inexacto, engañoso o "alucinado", ya sea a las partes interesadas internas o externas, no se tolerará culpar a las herramientas de autocompletado. Todos los empleados de PCV asumen la responsabilidad personal por el contenido que ellos, como individuos, con o sin autocompletado, producen.
Al adoptar esta política, PCV y sus empleados buscan promover el uso ético de la IA y generar confianza entre todas nuestras partes interesadas. Creemos que el uso responsable y ético de la IA genera valor para nuestros clientes, optimiza nuestros flujos de trabajo y contribuye a la innovación, el crecimiento y los resultados para las comunidades desatendidas.
El personal de PCV hizo referencia a estos marcos, artículos y expertos en la creación de esta política:
- “La IA es fundamentalmente incompatible con los derechos civiles”, Dra. Vivienne Ming, Socos Labs del Urban Institute, 2017., https://www.youtube.com/watch?v=Cm7IJiokqz8
- “Esta no es la Revolución Industrial”, Dra. Vivienne Ming, Socos Academy, 2018, https://academy.socos.org/not-the-ir/
- “No necesitamos un manifiesto de IA, necesitamos una constitución”, Dra. Vivienne Ming, Financial Times, https://www.ft.com/content/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063
- “Tecnóloga Vivienne Ming: La IA es un derecho humano”, Dra. Vivienne Ming, The Guardian, 2018, https://www.theguardian.com/technology/2018/dec/07/technologist-vivienne-ming-ai-inequality-silicon-valley
- “Human at the Helm: Genere confianza en la IA con un toque humano”, Oficina de Uso Ético y Humano de Salesforce, 2024, https://humanatthehelm.splashthat.com/
- “El marco de equidad de datos”, We All Count, 2022, https://weallcount.com/the-data-process/
- “Uso responsable de la tecnología”, Foro Económico Mundial, 2019, https://www3.weforum.org/docs/WEF_Responsible_Use_of_Technology.pdf
- “La Cuarta Revolución Industrial: qué significa, cómo responder”, Klaus Schwab, Foro Económico Mundial, https://www.weforum.org/stories/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
- “Plan para una Carta de Derechos de la IA”, La Casa Blanca, 2023, https://www.whitehouse.gov/ostp/ai-bill-of-rights/
- “Marco de gestión de riesgos de IA”, Instituto Nacional de Estándares y Tecnología, 2023, https://www.nist.gov/itl/ai-risk-management-framework
- “Compromisos voluntarios de Microsoft para impulsar la innovación responsable en IA”, Microsoft, 2023, https://blogs.microsoft.com/on-the-issues/2023/07/21/commitment-safe-secure-ai/
Esta política se redactó como parte de un grupo de trabajo interdisciplinario sobre gobernanza de datos dentro de PCV durante los últimos dos años, con el apoyo del miembro del Consejo Asesor de PCV, la Dra. Vivienne Ming, una experta en inteligencia artificial ética con sede en Socos Labs, Berkeley, California.