“El riesgo existencial no proviene de un Armagedón creado por robots que conducirá a nuestra desaparición. El verdadero riesgo existencial es que todos nos volvamos locos porque no podemos creer lo que vemos, oímos o leemos… El hecho de que hayamos planteado esta conversación a nivel global me da una gran esperanza. Los medios de comunicación tienen un papel muy importante que desempeñar y deben recuperar su papel de “cuarto poder” y lo necesitamos ahora más que nunca. Hay muchas formas de verificar las noticias, y eso es lo que deberían hacer los medios de comunicación serios”, dijo Carme Artigas, copresidenta del Organismo Asesor de Inteligencia Artificial.
El Órgano Asesor está compuesto por expertos en IA tanto del Norte como del Sur Global, representantes de los sectores público y privado, y el mundo académico. La IA “requiere gobernanza” y la creación de reglas de uso acordadas globalmente para resolver problemas y eliminar riesgos. Los expertos del Órgano Asesor también enfatizan que se deben tomar medidas para que absolutamente todos, y no ciertos grupos de la población, puedan utilizar las capacidades de la IA.
Artigas es reconocido como uno de los principales expertos en el campo de la inteligencia artificial. En 2020, tras varios años de trabajo en el sector privado, fue nombrada primera Secretaria de Estado de Digitalización e Inteligencia Artificial de España. Destaca que la IA puede convertirse en una herramienta fundamental para mantener la democracia, ya que pondrá el conocimiento acumulado por la humanidad a disposición de todos. Además, la IA tendrá un impacto muy positivo en la industria sanitaria y ayudará a prevenir enfermedades, mejorar el diagnóstico y reducir costes al mismo tiempo.
Seidina Moussa Ndiaye, de Senegal, es una de las representantes del Sur Global en el Órgano Asesor de IA. Estuvo involucrado en el desarrollo de la Estrategia Panafricana de IA. En su opinión, la inteligencia artificial ayudará a los Estados africanos a resolver muchos problemas, en particular en la agricultura y la sanidad. Pero al mismo tiempo, Ndiaye advierte de la posibilidad de una nueva “colonización” del continente utilizando esta herramienta.
“Gran parte de los datos que se generan actualmente en África pertenecen a corporaciones multinacionales cuya infraestructura se desarrolla fuera del continente, donde también trabajan la mayoría de los expertos africanos en inteligencia artificial. Esto es una pérdida de talento africano”, afirma Ndiaye. “En última instancia, las grandes multinacionales de la IA impondrán sus soluciones en todo el continente, sin dejar lugar a soluciones locales”, añade.
Como continente con un enorme potencial de desarrollo y una gran población joven interesada en la IA, África podría convertirse en un campo de pruebas crítico para nuevas tecnologías, afirmó Ndiaye. Sin embargo, cualquier proyecto en este ámbito debe ser regulado, subraya el experto. “Si esto no se controla, podemos acabar realizando pruebas en humanos utilizando chips o incluso elementos biotecnológicos integrados. Estas son tecnologías en las que no somos buenos. Desde el punto de vista regulatorio, hay ciertos aspectos que no se han tenido en cuenta”, explica.
La UNESCO, a su vez, insta a los gobiernos a introducir regulaciones apropiadas y brindar capacitación docente para garantizar un enfoque centrado en el ser humano en el uso de la IA generativa en la educación. Con este fin, la UNESCO está publicando la primera Guía del mundo sobre IA generativa en la educación y la investigación para abordar la disrupción causada por las tecnologías de IA generativa.
Las primeras secciones de la Guía de la UNESCO explican qué es la IA generativa y cómo funciona. Las siguientes secciones profundizan en la controversia en torno a la IA generativa y sus implicaciones para la educación, en particular cómo está exacerbando la brecha digital. De hecho, los modelos ChatGPT modernos se basan en datos de usuarios en línea que reflejan los valores y las normas sociales dominantes del Norte Global.
La Guía de la UNESCO continúa describiendo siete pasos clave que los gobiernos deben tomar para regular la IA generativa y crear un marco de políticas para su uso ético en la educación y la investigación, incluso mediante la adopción de estándares de privacidad y protección de datos globales, regionales o nacionales. También establece un límite de edad de 13 años para el uso de herramientas de inteligencia artificial en el aula y exige capacitación de docentes sobre el tema.