Inteligencia Artificial: ¿debería ser regulada?, y ¿por quién?
Sobre la inteligencia artificial se han cernido todos los escenarios apocalípticos, incluso hasta que los robots acabarán con la humanidad. Por ello, más gobiernos piden regular la tecnología.
Un visitante se toma un 'selfie' durante una cumbre sobre inteligencia artificial de la ONU, el 5 de julio de 2023.
FABRICE COFFRINI / AFP
Autor:
Actualizada:
Compartir:
Las alarmas y voces críticas han surgido de todas partes. Hasta el creador del ChatGPT, Sam Altman, firmó un documento argumentando que la inteligencia artificial representa un “riesgo existencial” para la humanidad.
La IA es una rama de la informática y la ingeniería que se formó en la década de los 50 y que aspira en un ‘futuro’ construir sistemas o software tan inteligentes que emulen la inteligencia humana.
Pero, ¿cuáles son las reales posibilidades de que los bots o las máquinas acaben con el ser humano?
Y al ser tan peligrosa como alegan sus críticos, ¿debería regularse?
Dentro de la IA hay también varias ramas. La más ‘débil’ y popularizada se reduce a los famosos bots conversacionales como Siri y más recientemente el ChatGPT.
Hay otra rama de la IA que apunta a que las computadoras tengan ‘conciencia’ como el famoso proyecto Lambda de Google.
Y están los sistemas computacionales superrápidos y poderosos que pueden procesar altas cantidades de información, como Watson, el computador de IBM.
“En IBM llevamos más de 70 años desarrollando la IA y creemos que siempre debe existir visibilidad sobre la manera en que la herramienta llegó a una conclusión”, dice el vocero de Asuntos Gubernamentales y Regulatorios de IBM para América Latina, Diego Bassante a PRIMICIAS.
Consultado sobre si los proyectos o desarrollos de IA deberían regularse, Bassante responde: “La regulación es clave para que siga progresando, porque marca unos parámetros alrededor del uso, transparencia y ética”.
¿Quién regula a quién?
En Europa, se discute un proyecto de ley para controlar la IA según su nivel de riesgo: alto, bajo y prohibido.
“El enfoque basado en riesgos de la regulación europea es muy positivo en cuanto regula los usos de la tecnología y no la tecnología misma”.
Diego Bassante, vocero de IBM.
El proyecto señala que aplicaciones de IA que podrían influir en la democracia o en una elección deberían ser vigiladas de cerca.
Y habría desarrollos prohibidos, como los sistemas sofisticados de reconocimiento facial en espacios públicos.
Otra demanda del proyecto de ley, aprobado primero por el Parlamento europeo, es la transparencia.
Exigen que empresas como OpenAI, creador del ChatGPT, entreguen informes detallados de los datos que usaron para entrenar a sus sistemas de IA.
Mientras que otras empresas deberían mencionar explícitamente que usaron algún programa de IA para manipular imágenes y videos, o para elaborar un texto.
“Los resultados de búsqueda que entregue una herramienta con IA, ya sean deterministas o probabilísticos, deben ir acompañados de la posibilidad de que el usuario verifique el origen y las fuentes”, añade Bassante sobre la transparencia de la tecnología.
Amenazas hipotéticas
La mayoría de escenarios apocalípticos sobre la IA parten de un mismo guion de película de ciencia ficción: un día las máquinas superarán al ser humano, escaparán de todo control y se negarán a ser apagadas.
Son escenas al estilo la película Terminator o iRobot, pero nada más alejado de la realidad, dice el experto en ciberseguridad de la firma ESET Latinoamérica, Mario Micucci.
"La IA como tal aún es ciencia ficción, no podemos hablar de ella, sino solo de herramientas de machine learning", dice Micucci.
El ‘machine learning’ apunta a entrenar a una máquina para que aprenda conocimientos generados y digitados por un ser humano.
Por otra parte, la experta en robótica Kerstin Dautenhahn, de la Universidad de Waterloo en Canadá, restó importancia a los robots ‘asesinos’ de las películas.
En una entrevista con la agencia AFP, indicó que es poco probable que la IA le dé a las máquinas mayores capacidades de razonamiento o les imparta ese ‘deseo de matar’ a los humanos.
"Los robots no son malos", pero los programadores conocedores de IA sí pueden hacer que hagan cosas malas, dijo la experta.
Riesgos reales
Cuando cientos de personalidades tecnológicas firmaron una carta pública para detener por un tiempo los desarrollos de IA, alegaron que los programas como ChatGPT iban a una velocidad sin precedentes.
Dijeron que tanta velocidad y premura podría derivar en la creación de algoritmos erróneos.
Y estos algoritmos podrían ser usados para difundir información falsa, formar opiniones equivocadas y hasta alterar los procesos democráticos.
“La IA es una tecnología que requiere de entrenamiento y se basa en grandes cantidades de información, por eso es fundamental que no haya sesgos, sino un manejo ético”, reconoce Bassante de IBM.
Además de la proliferación de ‘fake news’, de sesgos y estereotipos, los programas de IA puedan caer en la violación de la privacidad y el uso masivo de datos, sin el consentimiento de los creadores.
Un escenario menos fantasioso y más real es que los hackers recurran a técnicas sofisticadas de IA para perfeccionar malware y técnicas de phishing, señala el experto de ESET, Micucci.
“Ya no solo es posible hacer un deepfake de un video enviado en un correo, sino también suplantar la identidad de una persona a través de una videollamada”, añade Micucci.
Y el temor más difundido sobre la IA es que las máquinas reemplazarán a todos los trabajadores.
Esto es algo que Bassante de IBM no lo descarta del todo, pero matiza la realidad diciendo: “Esta tecnología está dando paso a nuevos roles hechos por personas. Hablamos de ingenieros prompt, científicos de datos, desarrolladores y entrenadores de IA”.
Compartir: