{
    "id": 28976,
    "date": "2026-01-29T08:49:07",
    "date_gmt": "2026-01-29T16:49:07",
    "guid": {
        "rendered": "https:\/\/pcvdevel.wpenginepowered.com\/?page_id=28976"
    },
    "modified": "2026-02-16T22:28:41",
    "modified_gmt": "2026-02-17T06:28:41",
    "slug": "%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e6%94%bf%e7%ad%96",
    "status": "publish",
    "type": "page",
    "link": "https:\/\/www.pacificcommunityventures.org\/es\/ai-policy\/",
    "title": {
        "rendered": "Pol\u00edtica de IA"
    },
    "content": {
        "rendered": "<h1>\n\t\t\tPreguntas frecuentes\t<\/h1>\n<h2>\n\t\t\tPol\u00edtica de Pacific Community Ventures (PCV) que rige el uso responsable y \u00e9tico de la inteligencia artificial y el aprendizaje autom\u00e1tico\t<\/h2>\n\t<p>Agosto de 2025<\/p>\n\t<p>Estimados colegas, socios de la industria y simpatizantes del PCV:,<\/p>\n<p>La civilizaci\u00f3n humana ha entrado en una nueva era, la 4<sup>el<\/sup>\u00a0revoluci\u00f3n industrial, de innovaci\u00f3n tecnol\u00f3gica como la inteligencia artificial (IA) y el aprendizaje autom\u00e1tico (ML), que aportan el poder y el potencial para agilizar nuestras operaciones comerciales, generar ideas y contenido y procesar vasta informaci\u00f3n a velocidades que superan la capacidad humana.<\/p>\n<p>PCV has long been a data-driven, &#8220;high tech and high-touch&#8221;, organization founded as one of the country&#8217;s first impact investing organizations. PCV is dedicated to investing in small business entrepreneurs&#8217; passion and resilience, helping them create good quality jobs and advance economic mobility and financial wellbeing outcomes, while uplifting communities that have been historically underserved. PCV is also a federally and state-certified community development financial institution (CDFI), a field born out of the Civil Rights movement as the economic justice pillar, more than 30 years ago following a federal acknowledgment of discrimination and redlining in the formal financial industry.<\/p>\n<p>We acknowledge the potential ethical issues that AI poses, and the impact, both positive and negative, that it can have on our employees, customers, and communities. We are continuing to research and understand the algorithmic bias perpetuated by AI in the last few years, particularly in sensitive industries related to ours &#8211; such as financial decisions, hiring, and criminal justice.<\/p>\n<p>Therefore, we are committed to developing and implementing a comprehensive policy around the ethical use of AI and ML that aligns with our company&#8217;s values, mission, and goals<b>\u00a0Creemos que las decisiones de aprovechar cualquier aplicaci\u00f3n, herramienta, metodolog\u00eda o sistema de IA deben respetar el consentimiento individual y comunitario, la autonom\u00eda y la privacidad de los datos y el respeto por la autonom\u00eda y la dignidad humanas.<\/b><\/p>\n<p>Por lo tanto, en el uso de tecnolog\u00edas de IA y ML,\u00a0<b>PCV se adhiere estrictamente<\/b>\u00a0a lo siguiente\u00a0<b>seis principios fundamentales<\/b>:<\/p>\n<ol>\n<li>Debemos asegurarnos de que los beneficios de la IA utilizada minimicen el da\u00f1o creado, y no debe da\u00f1ar a ning\u00fan grupo o individuo en particular de manera desproporcionada.<\/li>\n<li>Debemos seleccionar o desarrollar una IA entrenada con datos demogr\u00e1ficos desagregados para evitar la discriminaci\u00f3n o da\u00f1os desproporcionados a cualquier persona o grupo de personas mediante el uso de dicho sistema. Reconocemos que los algoritmos entrenados sin una demograf\u00eda proporcionalmente equilibrada casi siempre tienen un peor rendimiento para clientes de bajos ingresos o de color, as\u00ed como para inmigrantes y otros grupos desfavorecidos.<\/li>\n<li>El sistema de IA nunca debe utilizarse para discriminar o excluir a clientes individuales o grupos de personas durante el desarrollo de las operaciones comerciales. Los sistemas de IA incluyen, entre otros, modelos predictivos, algoritmos de coincidencia, chatbots de soporte t\u00e9cnico, motores de recomendaci\u00f3n, contenido generado autom\u00e1ticamente para marketing y comunicaciones, herramientas y scripts para automatizar tareas administrativas (por ejemplo, finanzas, procesamiento de pr\u00e9stamos e informes), entre otros.<\/li>\n<li>AI systems used at PCV must at all times prioritize and safeguard clients&#8217; and customers&#8217; privacy and data rights, both, to protect data from abuse or monopolization\u00a0<i>y<\/i>\u00a0Para garantizar que cumplimos con la legislaci\u00f3n de privacidad de pr\u00e9stamos, como estamos obligados como CDFI. Nuestros clientes incluyen a los peque\u00f1os empresarios en los que invertimos como CDFI y a sus trabajadores. Tambi\u00e9n incluyen otras CDFI u organizaciones con una misi\u00f3n espec\u00edfica a las que PCV apoya como generadoras de capacidades en datos, an\u00e1lisis, aprendizaje autom\u00e1tico e inteligencia artificial. PCV se compromete a proteger estrictamente los datos de sus clientes en todo momento, manteni\u00e9ndolos en un entorno protegido con cortafuegos, separados de otros datos del programa.<\/li>\n<li>El sistema de IA deber\u00eda utilizarse para\u00a0<i>informar y<\/i>\u00a0<i>apoyo<\/i>\u00a0an\u00e1lisis cr\u00edtico y toma de decisiones humanas y nunca debe dejar de ser supervisado ni actuar como un sistema aut\u00f3nomo (es decir, no debe eliminar a los humanos del proceso o del ciclo de toma de decisiones).<\/li>\n<li>No utilizaremos IA aut\u00f3noma para tomar decisiones de pr\u00e9stamos ni otras decisiones importantes sin modificar esta pol\u00edtica y obtener la aprobaci\u00f3n del director ejecutivo. Las decisiones importantes incluyen, entre otras, las siguientes:\n<ul>\n<li>Determinar qui\u00e9n recibir\u00e1 y qui\u00e9n no recibir\u00e1 un pr\u00e9stamo.<\/li>\n<li>Determinar qui\u00e9n recibir\u00e1 y qui\u00e9n no recibir\u00e1 apoyo de asesor\u00eda empresarial.<\/li>\n<li>Determinar a qui\u00e9n informaremos sobre nuestros productos, servicios y nuevas oportunidades, como participar en un estudio, un nuevo programa piloto o incentivos de cualquier tipo.<\/li>\n<li>Si una decisi\u00f3n basada en IA genera alguna duda, aseg\u00farese siempre de que ning\u00fan grupo sea excluido de un producto o servicio de PCV sin causa o sin una justificaci\u00f3n objetiva. Aseg\u00farese siempre de que no se oculte informaci\u00f3n a ning\u00fan grupo en particular, nuevamente, sin una justificaci\u00f3n objetiva.<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n<p>Because algorithms are trained on large data sets of lending, hiring, and criminal justice decisions that employed a definition of &#8220;risk&#8221; that has historically excluded low-income and people of color, we feel we have to be particularly intentional about the use cases and guardrails we put in place to test them within PCV and our industry. We recognize that these new technologies can easily wipe out the gains we have made to date with our high-tech high-touch approach and accelerate bias in our field at a scale and speed that we may never be able to address before adverse impacts get deeply reinforced.<\/p>\n<p>We recognize that what we do as a CDFI, an impact investor, a community development organization &#8211; in terms of\u00a0<i>c\u00f3mo\u00a0<\/i>we deploy AI now &#8211; will set a precedent for the sector for years to come. As we increase our technology and AI capacities within PCV, we commit to sharing learnings with the CDFI and impact ecosystem, advocate for evidence-backed practices that center clients and community voices, protect against bias, curtail market drift, prevent exclusion, and ensure we seek the explicit consent of those we and our peers serve.<\/p>\n<p>Al colaborar con instituciones financieras comunitarias similares y otras organizaciones con una misi\u00f3n espec\u00edfica, debemos compartir nuestros valores y los par\u00e1metros que consideramos aceptables para el uso de la IA (detallados a continuaci\u00f3n). Si durante la colaboraci\u00f3n observamos divergencias en estos valores y par\u00e1metros, nos reservamos el derecho de disolverla. Con aquellas organizaciones con las que nos alineemos, trabajaremos para construir una comunidad de pr\u00e1ctica que ayude a difundir est\u00e1ndares de IA que promuevan la dignidad humana para todos, especialmente para las poblaciones desatendidas.<\/p>\n<p><b>A continuaci\u00f3n se presentan pautas m\u00e1s espec\u00edficas:<\/b><\/p>\n<ol>\n<li><strong>Always credit AI use:<\/strong> Siempre que la IA asista en la creaci\u00f3n de contenido para ser coautor de un texto o para crearlo \u00edntegramente, el empleado debe asegurarse de que se otorgue el cr\u00e9dito correspondiente al sistema o herramienta de IA utilizada. Esto debe hacerse mediante una nota al pie u otras indicaciones en el documento o publicaci\u00f3n.<\/li>\n<li><strong>Ensure data privacy:<\/strong> PCV reconoce la importancia de proteger los datos sensibles de los clientes y la informaci\u00f3n confidencial de la empresa al introducir material en las aplicaciones de IA. Antes de utilizar cualquier herramienta de IA, el empleado debe revisar la documentaci\u00f3n adjunta sobre seguridad de datos y obtener la aprobaci\u00f3n del Director de Datos y del Director General antes de iniciar su uso (v\u00e9ase m\u00e1s adelante). PCV se asegurar\u00e1 de que se implementen las medidas de seguridad adecuadas, como la anonimizaci\u00f3n de datos, el cifrado, las herramientas complementarias y los controles de acceso (para mitigar el uso de herramientas de terceros), para evitar el acceso o uso no autorizado de dicha informaci\u00f3n.<\/li>\n<li><strong>Exercise caution in decision-making:<\/strong> PCV recognizes that AI can automate standard processes that lead to decision-making. However, we must exercise caution and ensure that human oversight is an intentional part of the process to avoid biased or discriminatory decisions. PCV and its employees commit to regularly reviewing the AI systems and tools used to ensure their accuracy, fairness, and transparency. PCV will provide training to employees on the ethical use of AI &#8211; to ensure it is leveraged to inform and support human decision-making, not displace it.<\/li>\n<li><strong>Asociarse con instituciones confiables:<\/strong>\u00a0PCV&#8217;s senior leadership is working to establish partnerships with trusted institutions, such as non-profit organizations, industry associations, and research institutions, who have expertise in the proper and ethical use of AI. We will regularly seek their guidance on ethical AI practices and incorporate their recommendations into our policies and procedures.\u00a0<i>(Por ejemplo, Code for America, Black Wealth Data Center, Data Equity, etc.)<\/i><\/li>\n<li><strong>Defender la transparencia:<\/strong>\u00a0PCV y sus empleados deben garantizar la transparencia en el uso de la IA para nuestros grupos de inter\u00e9s, clientes y comunidades. Comunicaremos claramente el uso previsto de los sistemas y herramientas de IA, sus limitaciones y cualquier posible impacto en los grupos de inter\u00e9s. Tambi\u00e9n facilitaremos un canal para la retroalimentaci\u00f3n y las inquietudes relacionadas con el uso de la IA.<\/li>\n<li><strong>Commit to continuous improvement:<\/strong> PCV will regularly review and update our policy on the ethical use of AI to reflect changing trends, best practices, and emerging risks. We will ensure that our policy aligns with industry standards, regulatory requirements, and our company&#8217;s values and mission.<\/li>\n<li><strong>Measuring Bias:<\/strong> PCV utilizar\u00e1 KPI como porcentajes de identificaci\u00f3n de mujeres, BIPOC y LMI para medir y rastrear posibles sesgos.<\/li>\n<li><strong>Data Revamp Working Group:<\/strong> PCV aplicar\u00e1 a las herramientas de IA generativa las mismas pr\u00e1cticas de gobernanza de datos que a plataformas como Downhome o Qooper. Cualquier inquietud se abordar\u00e1 en el grupo de trabajo interno para su an\u00e1lisis con las partes interesadas.<\/li>\n<li><strong>Approvals for Testing:<\/strong> El personal que prueba nuevas herramientas de IA y ML debe solicitar permiso al Director de Datos y al Director Ejecutivo (CEO), aclarar el caso de uso que desea probar, el resultado o valor a\u00f1adido previsto para PCV y c\u00f3mo se adhiere a las directrices mencionadas. Tambi\u00e9n debe aclarar esta pol\u00edtica con los consultores externos, incorporarla en memorandos de entendimiento externos y recibir una firma de confirmaci\u00f3n. Debe contar con la aprobaci\u00f3n expl\u00edcita por escrito del CEO y del CDO antes de tomar cualquier medida.<\/li>\n<li><strong>Usage of AI tools for Auto-Completion:<\/strong> AI tools are increasingly becoming integrated into day-to-day applications and software such as email, Microsoft Office applications, and coding platforms. Auto-completion features, or &#8220;intelligent recommendations,&#8221; now accompany most applications and are intended to create efficiency. PCV employees are permitted to utilize auto-complete functionality in Word, Excel, PowerPoint, email, and other frequently used applications but must review the auto-completed content for accuracy. Auto-completed code (for example: while writing Python or R while performing data analysis or building algorithms) is discouraged, as the auto-generated code often suggests shortcuts, does not fully comprehend mission-based use cases, and creates a series of steps whose logic can be difficult to interpret during code reviews. If code completion tools are used, the developer must check all logic, syntax, and outputs for accuracy, AND provide comments in the code where auto-complete was used. In cases where inaccurate, misleading, or &#8220;hallucinated&#8221; content is delivered &#8211; whether to internal or external stakeholders &#8211; blaming auto-completion tools will not be tolerated. All PCV employees take personal responsibility for the content they as individuals, with or without auto-completion, produce.<\/li>\n<\/ol>\n<p>Al adoptar esta pol\u00edtica, PCV y sus empleados buscan promover el uso \u00e9tico de la IA y generar confianza entre todas nuestras partes interesadas. Creemos que el uso responsable y \u00e9tico de la IA genera valor para nuestros clientes, optimiza nuestros flujos de trabajo y contribuye a la innovaci\u00f3n, el crecimiento y los resultados para las comunidades desatendidas.<\/p>\n<p>El personal de PCV hizo referencia a estos marcos, art\u00edculos y expertos en la creaci\u00f3n de esta pol\u00edtica:<\/p>\n<ul>\n<li>&#8220;AI Is Fundamentally Incompatible with Civil Rights&#8221;, Dr. Vivienne Ming, Socos Labs from The Urban Institute, 2017,\u00a0<a href=\"https:\/\/www.youtube.com\/watch?v=Cm7IJiokqz8\" target=\"_blank\" rel=\"noopener\">https:\/\/www.youtube.com\/watch?v=Cm7IJiokqz8<\/a><\/li>\n<li>&#8220;This Is Not the Industrial Revolution&#8221;, Dr. Vivienne Ming, Socos Academy, 2018,\u00a0<a href=\"https:\/\/academy.socos.org\/not-the-ir\/\" target=\"_blank\" rel=\"noopener\">https:\/\/academy.socos.org\/not-the-ir\/<\/a><\/li>\n<li>&#8220;We don&#8217;t need an AI manifesto &#8211; we need a constitution&#8221;, Dr. Vivienne Ming, Financial Times,\u00a0https:\/\/www.ft.com\/content\/b16fab3e-7f19-49ab-9bbb-9bfeccbaf063<\/li>\n<li>&#8220;Technologist Vivienne Ming: AI is a human right&#8221;, Dr. Vivienne Ming, The Guardian, 2018,\u00a0https:\/\/www.theguardian.com\/technology\/2018\/dec\/07\/technologist-vivienne-ming-ai-inequality-silicon-valley<\/li>\n<li>&#8220;Human at the Helm: Build Trust in AI with a Human Touch&#8221;, Salesforce Office of Ethical and Humane Use, 2024,\u00a0https:\/\/humanatthehelm.splashthat.com\/<\/li>\n<li>&#8220;The Data Equity Framework&#8221;, We All Count, 2022,\u00a0https:\/\/weallcount.com\/the-data-process\/<\/li>\n<li>&#8220;Responsible Use of Technology&#8221;, World Economic Forum, 2019,\u00a0https:\/\/www3.weforum.org\/docs\/WEF_Responsible_Use_of_Technology.pdf<\/li>\n<li>&#8220;The Fourth Industrial Revolution: what it means, how to respond&#8221;, Klaus Schwab, World Economic Forum,\u00a0https:\/\/www.weforum.org\/stories\/2016\/01\/the-fourth-industrial-revolution-what-it-means-and-how-to-respond\/<\/li>\n<li>&#8220;Blueprint for an AI Bill of Rights&#8221;, The White House, 2023,\u00a0https:\/\/www.whitehouse.gov\/ostp\/ai-bill-of-rights\/<\/li>\n<li>&#8220;AI Risk Management Framework&#8221;, National Institute of Standards and Technology, 2023,\u00a0https:\/\/www.nist.gov\/itl\/ai-risk-management-framework<\/li>\n<li>&#8220;Voluntary Commitments by Microsoft to Advance Responsible AI Innovation&#8221;, Microsoft, 2023,\u00a0https:\/\/blogs.microsoft.com\/on-the-issues\/2023\/07\/21\/commitment-safe-secure-ai\/<\/li>\n<\/ul>\n<p><i>This policy was drafted as part of a cross-staff data governance working group within PCV over the last two years, with support from PCV Advisory Council member, Dr. Vivienne Ming &#8211; an ethical Artificial Intelligence expert based out of Socos Labs, Berkeley, CA.<\/i><\/p>",
        "protected": false
    },
    "excerpt": {
        "rendered": "<p>Preguntas frecuentes Pol\u00edtica de Pacific Community Ventures (PCV) que rige el uso responsable y \u00e9tico de la inteligencia artificial y el aprendizaje autom\u00e1tico Agosto de 2025 Colegas, socios de la industria y simpatizantes de PCV: La civilizaci\u00f3n humana ha entrado en una nueva era, la cuarta revoluci\u00f3n industrial, de innovaci\u00f3n tecnol\u00f3gica como la inteligencia artificial (IA) y el aprendizaje autom\u00e1tico (ML), que aportan el poder y el potencial para\u2026<\/p>",
        "protected": false
    },
    "author": 61,
    "featured_media": 0,
    "parent": 0,
    "menu_order": 0,
    "comment_status": "closed",
    "ping_status": "closed",
    "template": "",
    "meta": {
        "_acf_changed": false,
        "ngg_post_thumbnail": 0,
        "footnotes": ""
    },
    "class_list": [
        "post-28976",
        "page",
        "type-page",
        "status-publish",
        "hentry"
    ],
    "acf": [],
    "_links": {
        "self": [
            {
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/pages\/28976",
                "targetHints": {
                    "allow": [
                        "GET"
                    ]
                }
            }
        ],
        "collection": [
            {
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/pages"
            }
        ],
        "about": [
            {
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/types\/page"
            }
        ],
        "author": [
            {
                "embeddable": true,
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/users\/61"
            }
        ],
        "replies": [
            {
                "embeddable": true,
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/comments?post=28976"
            }
        ],
        "version-history": [
            {
                "count": 2,
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/pages\/28976\/revisions"
            }
        ],
        "predecessor-version": [
            {
                "id": 29499,
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/pages\/28976\/revisions\/29499"
            }
        ],
        "wp:attachment": [
            {
                "href": "https:\/\/www.pacificcommunityventures.org\/es\/wp-json\/wp\/v2\/media?parent=28976"
            }
        ],
        "curies": [
            {
                "name": "wp",
                "href": "https:\/\/api.w.org\/{rel}",
                "templated": true
            }
        ]
    }
}