DeepSeek bajo la lupa en Estados Unidos, Australia e Italia por sus lazos con China
La oficina de la Casa Blanca en Estados Unidos, Australia e Italia han expresado sus sospechas sobre DeepSeek, a la que OpenAI señala de haber usado sin permiso sus modelos de inteligencia artificial.
El logo de la startup china de inteligencia artificial, DeepSeek, se muestra en la pantalla de un computador mientras en un teléfono inteligente se ve su app, en enero de 2025.
- Foto
Salvatore Di Nolfi / EPA / EFE
Autor:
AFP / EFE / Redacción Primicias
Actualizada:
Compartir:
La secretaria de prensa de la Casa Blanca, Karoline Leavitt, dijo en su primera conferencia de prensa que el Consejo de Seguridad Nacional (NSC) de Estados Unidos está "investigando" las posibles implicaciones de seguridad de los avances en inteligencia artificial (IA) de la empresa china DeepSeek.
En ese sentido, Leavitt anotó que había discutido personalmente el asunto con el NSC el 28 de enero por la mañana.
La portavoz, además, dijo que el presidente, Donald Trump, vio los modelos de bajo costo pero altamente avanzados de DeepSeek como una "llamada de atención" para la industria de la IA de Estados Unidos, pero que el mandatario seguía confiando en que EE. UU. "restaurará el dominio".
A grandes rasgos la inteligencia artificial es una tecnología que permite la generación, clasificación y realización de actividades al simular el comportamiento, razonamiento y conductas de un humano.
Las declaraciones suceden en medio de la incertidumbre que rodea al futuro de la red social TikTok, propiedad de la china ByteDance, a quien se la ha señalado precisamente por preocupaciones respecto a la seguridad nacional.
Preocupaciones por la privacidad de los usuarios
En Europa, la autoridad italiana de protección de datos personales (GPDP), indicó que ha pedido información a DeepSeek por "posible riesgo para los datos de millones de personas en Italia".
"La autoridad, considerando el elevado riesgo potencial para los datos de millones de personas en Italia, preguntó qué datos personales se recopilaron, de qué fuentes y con qué intención", indicó GPDP en un comunicado.
Preguntó también "cuál es la base jurídica para el procesamiento (de datos) y si son almacenados en servidores ubicados en China" como parte del desarrollo de la inteligencia artificial (IA) generativa de DeepSeek.
El organismo envió sus preocupaciones a Hangzhou DeepSeek Artificial Intelligence y a Beijing DeepSeek Artificial Intelligence, dándoles 20 días para responder.
La GPDP, en dicimebre de 2024, multó a OpenAI con USD 15,6 millones por el uso de datos personales de parte de ChatGPT, aunque la empresa de Sam Altman aseguró que apelaría.
En una línea similar a la de la autoridad italiana, en Oceanía, el ministro de ciencias de Australia, Ed Husic, expresó a la televisión nacional ABC sus preocupaciones sobre la privacidad de quienes usan DeepSeek, a la vez que llamó a los usuarios a "tener mucho cuidado" antes de descargarlo.
OpenAI sospecha de DeepSeek
Estas preocupaciones surgen mientras desde los medios Bloomberg y Financial Times (FT) reportan que OpenAI sospecha que un grupo vinculado a DeepSeek obtuvo datos o accedió a sus modelos de forma indebida para entrenar a la inteligencia artificial china.
En medio de las inquietudes sobre una posible violación de la propiedad intelectual, OpenAI dijo al FT que había visto alguna evidencia de "destilación" (transferencia de conocimientos), que sospecha que proviene de DeepSeek.
La destilación es una práctica común en esta industria en la que un modelo aprende o adquiere el conocimiento de otro modelo diferente, pero la preocupación es que DeepSeek pudiera estar haciéndolo para construir su propio modelo rival, lo que es una violación de los términos de servicio de OpenAI, empresa con sede en San Francisco.
OpenAI se negó a hacer más comentarios o proporcionar detalles de su evidencia, precisa el artículo.
Las sospechas surgen mientras el asesor especial de la administración de Donald Trump sobre inteligencia artificial, David Sacks, afirmó en una entrevista a Fox News que "existen pruebas sustanciales de que lo que DeepSeek hizo aquí es extraer el conocimiento de los modelos de OpenAI".
Compartir: