La ONU creó un organismo con empresas como Google y Microsoft para conocer los riesgos de esta nueva tecnología
La inteligencia artificial plantea distintos desafíos que la sociedad y las autoridades están empezando a entender en medio de su masificación. Temas éticos, de seguridad y regulación, son algunos que inquietan a las organizaciones de todo el mundo. Por eso la ONU creó un organismo que se encargará de entender todo este contexto.
La Organización de las Naciones Unidas (ONU) confirmó un grupo compuesto por 39 miembros de diferentes países para evaluar los riesgos asociados con la IA y formular propuestas para abordar esos desafíos.
El secretario general de la ONU, António Guterres, destacó la importancia de esta iniciativa: “el uso malicioso de la inteligencia artificial podría socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la democracia misma”. Algo que se da en un contexto en el que la IA está cada vez más presente en las aplicaciones y dispositivos y, por ende, en la vida cotidiana.
Además, este organismo tendrá la labor de promover una “conversación global multidisciplinaria” que incluye a diversas partes interesadas, desde expertos de la industria hasta académicos y representantes gubernamentales.
Esta tecnología presenta desafíos éticos y de seguridad. (Freepik)
Dentro de las personas que integrarán este ente internacional se encuentran la UNESCO, James Manyika, vicepresidente senior de Google-Alphabet, Natasha Crampton, directora responsable de inteligencia artificial en Microsoft, y Mira Murati, directora de tecnología de OpenAI. Además de gobiernos como México, Rusia, Kenia, Brasil y Alemania, e instituciones como la Universidad de Tokio y la Universidad de Stanford.
Este organismo no está pensado como una alianza para regular o controla la inteligencia artificial, que permita otorgar o quitar licencias de uso, sino lo que busca es entender y revisar los riesgos que esta tecnología genera. Algo que se haría visible a través de informes publicados periódicamente.
Otros casos de organizaciones similares en el mundo
En este contexto de crecimiento y masificación de la IA, el Grupo de los Siete (G7) hizo un llamado hace unos meses para establecer estándares de regulación. Los líderes de esta alianza aseguraron que si bien los enfoques de esta tecnología pueden variar, es esencial que las reglas sobre la IA estén en línea con los valores democráticos compartidos.
A través del “Proceso de Hiroshima”, un marco de discusión establecido por los gobiernos del G7, se buscará abordar cuestiones clave relacionadas con la gobernanza, los derechos de propiedad intelectual, la transparencia de los desarrolladores y los riesgos asociados con la manipulación de información.
El G7 reconoce que la regulación debe adaptarse a estos avances y garantizar la equidad y la responsabilidad. Esto incluye proporcionar herramientas para combatir el acoso en línea, el odio y la protección de la privacidad de los usuarios.
Esta tecnología presenta desafíos éticos y de seguridad. (Unsplash)
Además de las iniciativas del G7 y la ONU, se están llevando a cabo esfuerzos adicionales en todo el mundo para entender los desafíos de la inteligencia artificial. En Europa, el Parlamento Europeo se prepara para votar una ley integral de la IA que podría convertirse en la primera de su tipo en el mundo. Este proyecto de ley contempla medidas estrictas para limitar ciertas funciones a la IA, como el reconocimiento facial y la vigilancia biométrica.
Por otro lado, Estados Unidos ha adoptado un enfoque diferente sobre cómo plantear la regulación de la inteligencia artificial. Aunque aún no se ha elaborado una legislación concreta para controlar el desarrollo y uso de esta tecnología, la Casa Blanca ha mantenido conversaciones con las empresas desarrolladores, como Microsoft, Google y OpenAI, invitándolos a garantizar la transparencia y seguridad en sus desarrollos.
En el caso de las compañías, el CEO de OpenAI, Sam Altaman aseguró que se debería crear organismo regulador internacional que establezca estándares globales para la IA, algo similar a lo que se ha hecho con las armas nucleares.
Ante el Senado de Estados Unidos, el directivo dio a conocer sus temores por el avance de esta tecnología y advirtió sobre posibles campañas de desinformación impulsadas por la IA que podrían influir en las elecciones presidenciales. También señaló la necesidad de una regulación más sólida para los sistemas de inteligencia artificial más grandes, como ChatGPT, que tienen un mayor potencial para causar daño.
Humanismo digital
José Leonardo Valencia, rector de Areandina Bogotá, aseguró que la pandemia hizo que nos humanizáramos más y entendiéramos que la inteligencia artificial es una herramienta que depende de nosotros usarla de manera positiva.
“La tecnología debe estar acompañada del hombre para que su impacto sea positivo en nuestras vidas. No podemos entender la tecnología o las redes sociales como algo que nos desarticule la vida, más bien que sean el camino para encontrar oportunidades”, explicó Valencia.
En ese sentido, Gerhard Doujak, embajador de Austria en Colombia, aseguró que el mundo de las tecnologías de IA debe ser entendido como un disparador de la creatividad y la productividad. Indicó que el mundo está entrando en una fase crucial debido a las capacidades que introdujo, pero “debe estar mediada por la dignidad de los humanos y la naturaleza”.
Por su parte, Werner Stengg, de la Alianza digital para Latinoamérica de la Unión Europea, manifestó que aunque estas tecnologías brindan soluciones y facilitan avances en temas de salud, educación, farmacéuticos y lingüística, también exponen retos y alertas para quienes las utilizan.
“Claro que hay un riesgo y mucha gente tiene miedo de eso, pero se da por falta de comprensión frente a ella. No es aconsejable tomar decisiones arriesgadas basados en la IA. Otro de los riesgos está relacionado con los derechos fundamentales que se pueden ver vulnerados o en temas de acceso, por ejemplo, la IA no puede tomar decisiones sobre quién toma un trabajo o no”, dijo.