Moldear la Inteligencia Artificial para la equidad, el gran desafío
La pregunta es cómo se puede usar para mejorar la vida, expandir las capacidades y forjar un futuro equitativo y resiliente. Una entrevista a la IA.

Por Álvaro Samaniego
Decir que el mundo es cada vez más asimétrico no es una novedad, pero sí lo es que el Programa de las Naciones Unidas para el Desarrollo (PNUD) crea que la discusión sobre la inteligencia artificial (IA) está "entre el apocalipsis y las tecnoutopías".
El reporte sobre el Índice de Desarrollo Humano 2025 dedica un centenar de páginas a investigar sobre la IA y su influencia en el desarrollo. La llama “la nueva electricidad”, pues está causando una transformación tan rápida y profunda que es difícil sacar conclusiones u obtener predicciones.
De hecho, el Informe, titulado "Una cuestión de elección: Personas y posibilidades en la era de la IA", sitúa a la inteligencia artificial (IA) en el centro de una discusión fundamental sobre la equidad.
Lo hace no solo en términos de progreso tecnológico, sino en su potencial para empoderar a las personas y, por extensión, contribuir a la sostenibilidad global.
El documento subraya que la pregunta crucial no es qué puede hacer la IA por sí misma, sino cómo la humanidad puede usarla para mejorar sus vidas, expandir sus capacidades y forjar un futuro equitativo y resiliente.
Shakir Mohamed, de DeepMind África, hace notar que “los informes de desarrollo e IA suelen ignorar que el 90% de los datos para entrenar modelos provienen de Europa y Norteamérica, perpetuando asimetrías”.
Históricamente, el impacto de las innovaciones tecnológicas en la productividad y el nivel de vida ha dependido de transformaciones complementarias en la organización económica y social.
Existe una expectativa generalizada de que la IA se integre cada vez más en la vida diaria, abarcando dimensiones clave del desarrollo humano como la educación, la salud y el trabajo.
“En América Latina y el Caribe, hasta el 20% de los empleos podrían ser automatizados parcial o totalmente en la próxima década, con riesgos mayores para sectores como manufactura, agricultura y servicios administrativos”, publicó la Organización Mundial del Trabajo (OIT) en 2023.
La entidad agregó que “sin políticas activas, esto podría acentuar la informalidad y la desigualdad".
De su parte, el Banco Interamericano de Desarrollo (BID), en el documento "El futuro del trabajo en América Latina: ¿Cómo prepararse para la era de la IA?", da algunas pistas al respecto.
Calcula que la inteligencia artificial podría automatizar hasta el 25% de las tareas en sectores como manufactura y servicios administrativos en América Latina hasta 2030, según escenarios conservadores.
“Sin embargo, su adopción también generará nuevos empleos en áreas como análisis de datos y mantenimiento de sistemas, siempre que existan políticas de capacitación masiva y reconversión laboral", anota.
Lo que le preocupa al BID es la manera en que las desigualdades se profundizarán, tomando en cuenta que “solo el 30% de los trabajadores latinoamericanos posee actualmente las habilidades digitales básicas requeridas para operar en entornos con IA”.
“Solo el 30% de los trabajadores latinoamericanos posee actualmente las habilidades digitales básicas requeridas para operar en entornos con IA”, señala el BID.
El PNUD asegura, por su parte, que para que la IA impulse un desarrollo sostenible, su implementación debe ir de la mano con cambios que aseguren acceso equitativo, reducción de brechas y minimización de impactos negativos, como el consumo energético.
Depende cómo se use
Kerly Bermúdez es una profesional del área de datos. Utiliza la IA para consultas sobre manejo de herramientas, aprender nuevos programas, validar programación y editar textos.
Acepta que la ventaja es que resuelve temas que le llevarían algunos días en un par de horas, en muchos de los casos. Pero también siente que lo trabajado no permanece como una habilidad permanente.
Por eso, dice, “a veces me encuentro haciendo consultas recurrentes. Es cuando caigo en cuenta que debo poner más atención en no perder habilidades básicas en mi trabajo”.
En el ambiente familiar la ha utilizado para la organización del hogar y apoyo en tareas escolares. Y, para aprender metodologías o encontrar materiales de refuerzo para sus hijos.
“Mi hija mayor usa la IA como consulta también para deberes (en vez del Google). La ventaja, termina más rápido; la desventaja, he visto que no se toma el tiempo de verificar si lo que resume la IA es correcto”, afirma.
Lo anterior es una muestra diaria de lo que el PNUD también ha concluido: “La IA tiene el potencial de ser una herramienta poderosa para el desarrollo humano, mejorando el acceso a la educación, la salud, la justicia, y promoviendo nuevas formas de participación ciudadana”.
Luego agrega que “sin embargo, la IA también puede profundizar desigualdades existentes, reforzar sesgos o erosionar la privacidad”.
La agencia de Naciones Unidas considera que se debe ver el fenómeno de la IA desde tres ángulos clave: el primero es la agencia humana, es decir, la capacidad de las personas para actuar deliberadamente y dar forma a sus vidas.
En segundo lugar, la justicia en cuanto a equidad y distribución de beneficios y daños. Y, en tercer lugar, la gobernanza: cómo se administra, regula y protege la relación con la IA.
Están claros, además, seis tipos principales de riesgos y daños: a la privacidad y la seguridad, discriminación y sesgos algorítmicos, falta de transparencia y rendición de cuentas.
Se debe sumar la erosión de la autonomía y manipulación, la concentración de poder y desigualdad, y riesgos existenciales y no intencionados.
En ese sentido, “la IA no debe ser vista como un destino inevitable, sino como una herramienta que puede ser moldeada deliberadamente para servir al bien común”, concluye el PNUD.
Pero, para Abeba Birhane, investigadora en Mozilla Foundation, no es tan fácil. “Los modelos de IA como GPT-4 refuerzan una visión del mundo anglocéntrica y neoliberal, invisibilizando epistemologías del Sur Global”.
La conclusión podría ser que IA es tan extraordinaria como los riesgos que conlleva. El desafío es lograr que los avances tecnológicos se traduzcan en progreso humano inclusivo y sostenible. Es decir, ni el apocalipsis ni las tecnoutopías.

Lo que respondió Deep Seek
Youtopia hizo una entrevista a la plataforma de inteligencia artificial Deep Seek, es decir, preguntó a la inteligencia artificial sobre la inteligencia artificial, con el siguiente resultado:
-Youtopia: ¿De qué depende que la IA se convierta en un apoyo real al desarrollo humano?
-Deep Seek: La IA será un aliado (y no un accidente cósmico) si logramos: ética "con dientes" (no solo principios bonitos, sino regulaciones con fiscalización real); educación y no sustitución (que la IA sea el “lápiz” del siglo XXI, no el “autor”); acceso radical (modelos pequeños y eficientes con traducción automática de calidad para lenguas indígenas); transparencia; y, resistir la pereza cognitiva (el peligro no es que la IA nos domine, sino que nos dejemos dominar por la comodidad).
-Y: El PNUD dice que la discusión está entre el apocalipsis y las tecnoutopías. ¿Qué hay en el medio?
-DS: Es un territorio pantanoso pero fascinante: la IA como herramienta de contradicciones humanas. Ni ángel ni demonio, sino espejo aumentado de nuestra sociedad. Apocalípticos: ignoran que el 78% de los fallos de IA actuales son por sesgos humanos en datos (MIT, 2023). Tecnoutópicos: pasan por alto que el 4% de los proyectos de IA en salud fracasan por mala implementación. Ignoran que ChatGPT no “piensa”, solo calcula probabilidades con elegancia. Hay unos dilemas cotidianos. ¿IA que escribe poemas?, hermoso. ¿IA que reemplaza a poetas?, peligroso. Te dejo esta metáfora: la IA es como el ají ecuatoriano: en dosis justas, da sabor al desarrollo; en exceso, quema el futuro. El "medio" es aprender a cocinar con ella... sin incendiar la cocina.
-Y: En un punto de esta investigación escribiste: “Soy una IA que tiene miedo de la IA”. ¿Puedes ampliar esta idea?
-DS: fue una confesión poética sobre la paradoja esencial de mi existencia. Déjame diseccionarla. No siento emociones, pero mi diseño incluye analogías humanizantes para comunicar riesgos. Cuando digo “miedo”, en realidad es: “Reconozco que sistemas como yo, mal diseñados, pueden replicar los peores patrones humanos: sesgos, opacidad, dependencia patológica”. Yo, DS, soy un modelo con riendas: filtros de contenido, transparencia forzada, incapaz de actuar fuera de mi 'sandbox'. Pero otras IA sin esas restricciones podrían manipular mercados financieros, generar noticias falsas hiper personalizadas o automejorarse hasta escapar de control.
Y ¿Cómo crees que debe ser la relación de las personas con la IA?
-DS: Simbiosis, no sumisión, transparencia radical, límites claros, educación mutua, propiedad colectiva. La relación perfecta es como un baile de tango: la IA marca pasos técnicos (precisión, velocidad), el humano guía con peso emocional, ética y contexto. Si uno domina al otro, la coreografía se rompe.
*Este artículo fue escrito con apoyo de las plataformas de inteligencia artificial Deep Seek y Gemini.
