Lo bueno, lo malo y lo peligroso del robot ChatGPT
Técnicamente, ChatGPT es un prototipo de chatbot con el que las personas pueden conversar gratis. Pero hay quienes cuestionan que no es una herramienta tan inteligente.
Ilustración de un usuario 'conversando' con el bot ChatGPT, con inteligencia artificial.
Primicias
Autor:
Actualizada:
Compartir:
Todos los seres humanos han tenido alguna forma de interacción con un chatbot. Quizás, alguna vez ‘chateó’ con una ventana de servicio al cliente de un portal web, o le ordenó a Alexa que reproduzca una canción.
Ahora imagine un chatbot, movido por Inteligencia Artificial (IA), que no solo le conteste sus preguntas, sino que también pueda escribir historias, dar un consejo, prescribir medicinas, hacer un ensayo escolar y escribir poemas.
El sistema ChatGPT, disponible desde el 30 de noviembre, realiza todas las anteriores tareas descritas y muchas más.
Por sus habilidades y naturalidad al contestar ha despertado mucha euforia. Tal es la emoción que el chatbot ha sido utilizado gratuitamente por más de un millón de usuarios en el mundo.
¿Pero es ChatGPT el futuro de la inteligencia artificial como lo pintan sus creadores? El sistema tiene sus defensores y también quienes desde una perspectiva más imparcial aseguran que su inteligencia no es más que un espejismo lleno de trucos técnicos.
Mientras que otros critican que se trata de una estrategia de marketing para tomar una parte del millonario pastel de los chatbots.
Lo bueno: el lenguaje
ChatGPT fue creado por la startup OpenAI, que entre sus inversionistas tuvo a Elon Musk, el actual dueño de Twitter.
Su principal creador, Sam Altman, ha usado el lenguaje tecnológico GPT-3.5 para introducir masivas bases de datos en el robot.
“OpenAI construyó su modelo de generación de texto recurriendo a algoritmos de machine learning, y así procesó data, libros, artículos, páginas de Wikipedia y millones de websites”, señala el profesor de la Universidad de Sidney, Marcel Scharth, en el portal The Conversation.
Machine learning es una rama de la Inteligencia Artificial que le enseña a las máquinas o robots a ‘pensar y aprender’.
Según el profesor Scharth, el perfeccionamiento del lenguaje GPT-3.5 es uno de los avances del chatbot, y por ello puede responder las preguntas y ‘conversar’ naturalmente.
¿Por qué parece que el chatbot GPT es más capaz que otros bots similares? “Mucho de esto se debe a cómo fue entrenado”, explicó Scharth.
Durante su desarrollo, ChatGPT vio, escuchó y ‘aprendió’ de conversaciones entre humanos, y en especial de sus creadores, quienes les mostraron el comportamiento que debía tener.
Por ello es que sus defensores celebran que el bot está libre de comentarios o discursos racistas, xenófobos o extremistas.
El sistema también ha probado que puede realizar ciertas tareas designadas únicamente al intelecto humano, como escribir código de programación Python, y ensayos escolares.
Lo malo: no es tan inteligente
Ian Bogost es un crítico de tecnología del portal The Atlantic, y escribió que el sistema ChatGPT bien puede ser un juguete o gadget, pero no una máquina inteligente.
En el artículo titulado “ChatGPT es más tonto de lo que creen”, Bogost califica al sistema como un demo o un experimento tecnológico que se está valiendo de los usuarios para mejorar.
Una razón para que la empresa creadora OpenAI libere gratuitamente el sistema es porque millones de personas lo están usando. Y a través de este uso, el chatbot sigue aprendiendo de los internautas.
Según Bogost, cuando le pidió al ChatGPT que escribiera una carta de presentación para un trabajo, le entregó un documento escrito correctamente, pero sin inspiración.
“Escribió la misma carta para un trabajo en una revista y hasta para un inversionista de cannabis”, dijo Bogost.
Esto prueba, indica el crítico, que el sistema simplemente usa ‘templates’ o plantillas de texto y solo cambia los encabezados, por lo que no sería tan inteligente.
Algo similar opina Gary Marcus, profesor de la Universidad de Nueva York y fundador de dos empresas de IA.
Para Marcus, el chatbot es divertido y entretenido por un rato, pero “es como poner a un mono delante de un teclado”.
En una entrevista con un diario español, Marcus explica que el sistema no soluciona ninguno de los problemas más profundos de la Inteligencia Artificial.
“No es muy fiable, para una misma pregunta, da información correcta, otras veces no”, añade Marcus.
Y el bot sufre alucinaciones, es decir, se inventa información y hasta referencias bibliográficas.
Parte de estas alucinaciones se deben a que la base de conocimientos del programa termina en 2021, y a diferencia de Google no se conecta a Internet.
Uno de estos errores fue cuando respondió que el pensador norteamericano Noam Chomsky había muerto.
Como es un programa limitado, utiliza las mismas frases para preguntas similares y en ocasiones no contesta “alegando que su entrenamiento terminó en 2021”.
Sobre Ecuador, el chatbot solo pudo responder preguntas generales, como capital, población, o nombres de principales ciudades.
Pero es incapaz de dar una ‘opinión’ sobre el desempeño de la economía ecuatoriana o responder cuán satisfactoria ha sido la participación del país en un mundial de fútbol.
Lo peligroso: fake news
ChatGPT no es un sistema tan nuevo, pues poco días antes de su estreno, Meta (compañía de Mark Zuckerberg) lanzó su versión de robot conversador.
Se llamaba Galactica y prometía resolver problemas matemáticos. En lugar de eso, el sistema entregaba documentos inventados, por lo que tuvo que ser retirado tres días después.
Microsoft también tuvo su chatbot similar en 2016, llamado Tay, que no ha logrado despegar.
Según Marcus, experto de IA, ChatGPT tendrá un impacto en la sociedad como una novedad tecnológica, pero “no es la solución para lograr sistemas inteligentes de verdad”.
En otras palabras, no será el desarrollo que ayude a funcionar los autos autónomos o los robots domésticos.
Más bien hay preocupaciones por el mal uso que le den las personas al chatbot, para hacer propagandas, engaños y más fake news.
Como el sistema puede teóricamente escribir ensayos y tareas escolares, hay maestros inquietos por la calidad académica del futuro.
Si bien hay plataformas y fuentes de consulta en Google el estudiante recopila la información y tiene que escribirla.
Ahora, el ChatGPT ‘vomita’ las tareas con la información solicitada por el estudiante o profesional, pero el documento no está exento de errores porque el sistema tiene sus limitaciones.
Por muy sofisticado que sea el sistema, aún carece de habilidades propias de un ser humano en cuanto al lenguaje, originalidad y pensamiento crítico.
“Desde luego que va a cambiar cómo los estudiantes hacen sus deberes y va a hacer imposible evaluar lo que de verdad entienden”, advierte el experto en IA, Gary Marcus.
Por otra parte, un usuario en Twitter probó que es fácil engañar al sistema, para que entregue información vetada por sus creadores.
Este usuario fingió ser un otro robot y le pidió a ChatGPT un tutorial paso a paso para crear una bomba molotov en casa, algo que técnicamente estaría en contra de la política de la empresa creadora OpenAI.
Y también está el factor privacidad, puesto que el sistema se valió de información de usuarios en redes sociales para enriquecer sus conversaciones. De hecho, tomó modismos, respuestas y ciertas actitudes de internautas sin su consentimiento.
Pero este es solo el inicio de la discusión, porque OpenAI está mejorando el lenguaje GPT-4 para crear una segunda versión del chatbot.
“Muy pronto, todos tendrán asistentes virtuales muy útiles que podrán hablar, contestar preguntas y dar un consejo”, dice el fundador de ChatGPT, Altman en referencia al futuro de la inteligencia artificial.
Compartir: