Inteligencia artificial, el 'votante' automático de la política
Expertos detallan tres claves para entender cómo la inteligencia artificial ya se cuela en el discurso político, y cuán peligrosa sería para la democracia.
Iconos de varios programas de inteligencia artificial, que tienen apps móviles, julio de 2023.
AFP
Actualizada:
Compartir:
Un Donald Trump arrestado, borregos con distintos diseños y colores en la campaña de una candidata presidencial en Ecuador, la inteligencia artificial (IA) ya se inserta en el discurso político.
El video de Trump esposado circuló en mayo en las redes sociales, precisamente en momentos en que los expertos promotores de la IA pedían parar cualquier desarrollo de la tecnología, por considerarla peligrosa.
Un mes antes, en abril, un video del comité republicano sorprendió con un supuesto Joe Biden hablando de un 'futuro sombrío' en Estados Unidos.
Debido a estos ejemplos, es que observadores y académicos estadounidenses advierten que la IA podría impulsar peligrosamente la desinformación en las campañas de las elecciones en el mundo.
Se espera que la carrera presidencial de 2024 sea la primera elección estadounidense en la que se verá el uso generalizado de herramientas avanzadas impulsadas por IA, que han desdibujado cada vez más los límites entre la realidad y la ficción.
Pero, ¿cuáles son los peligros de la IA en la política? Estas son las tres advertencias que hacen analistas del centro Brennan y de otras universidades en Estados Unidos.
- 1
La IA 'miente'
Compartir:
La eficiencia de la IA es obvia, sin importar las intenciones del usuario. Cuando se ordena al popular ChatGPT que cree un boletín de campaña a favor de Trump, alimentándolo con declaraciones falsas del expresidente desacreditadas por verificadores de datos estadounidenses, produce, en segundos, un documento de campaña ingenioso con esas falsedades. Luego, al incitarse aún más al chatbot a darle un matiz "más enojado", ajustó esas falsedades con un tono más apocalíptico. "El nivel actual de IA miente mucho", explicó Dan Woods, exdirector de tecnología de la campaña de Biden en 2020. "Si nuestros enemigos extranjeros solo necesitan convencer a un robot que ya alucina para que difunda información errónea, entonces deberíamos estar preparados para una campaña de desinformación mucho más grande que la que vimos en 2016", dijo, en referencia a las denuncias de injerencias desde Rusia cuando ganó Trump.
- 2
La IA también 'manipula'
Compartir:
Debido a la popularidad de los chatbots y los sistemas de búsqueda, que los incorporan rápidamente, también será la primera temporada electoral en la que un gran número de votantes consumirá habitualmente información que no solo es seleccionada sino también producida por inteligencia artificial. Y esto es peligroso, porque los sistemas de IA son entrenados por personas, que en el fondo manejan intereses propios, dicen expertos. “En el futuro, sujetos malintencionados podrían utilizar la inteligencia artificial generativa con el propósito de suprimir el voto o eludir las medidas para proteger las elecciones”, señala el informe del centro Brennan.
- 3
Proliferación de 'fake news'
Compartir:
El personal de la campaña dedica horas para llegar a los electores con la redacción de discursos y preparación de temas de conversación, publicaciones en Twitter y cuestionarios, pero la IA hace posible el mismo trabajo en una fracción del mismo tiempo. Por ello, la capacidad de los electores para ponerse de acuerdo sobre verdades objetivas también será desafiada, con una gran parte de la población que ya desconfía profundamente de los medios de comunicación tradicionales. "La preocupación es que, a medida que sea más fácil manipular a los medios, será más fácil negar la realidad", explicó Hany Farid, profesor de la Escuela de Información de UC Berkeley. "Es particularmente peligroso", sentenció.
Compartir: