Offline
ChatGPT vs. DeepSeek: La batalla secreta entre el control y el caos informativo
Publicado en 31/01/2025 11:51
Honduras

Por: Javier Franco Núñez

X @Francoestratega

En los últimos días, una nueva inteligencia artificial ha comenzado a generar debate en el mundo digital. Su nombre es DeepSeek, fue desarrollada en China y muchos la ven como la gran competencia de ChatGPT, el modelo de IA más conocido hasta ahora. Sin embargo, más allá de la rivalidad tecnológica, lo que realmente importa es su impacto en cómo consumimos información y el riesgo de desinformación masiva.

Lo que hace especial a DeepSeek es que es de código abierto, lo que significa que cualquier persona puede modificarlo y adaptarlo a sus necesidades. Esto puede sonar innovador y positivo, pero también abre la puerta a un problema preocupante: sin restricciones ni controles, cualquiera podría usarlo para fabricar noticias falsas, manipular la opinión pública o crear confusión a gran escala.

Como director de #NoSoloFakeNews, mi trabajo es estudiar cómo la inteligencia artificial puede ser usada para la desinformación y cómo podemos protegernos de sus riesgos.

Para entenderlo mejor, imaginemos que ChatGPT y DeepSeek son dos robots que pueden escribir noticias en internet. Ahora bien, ¿qué pasaría si alguien quisiera usarlos para difundir información falsa?

ChatGPT es un robot con reglas muy estrictas. Trabaja dentro de una empresa llamada OpenAI, que ha establecido filtros y controles para evitar que se use con malas intenciones. Si alguien le pide que escriba una noticia falsa sobre una catástrofe que nunca ocurrió, es probable que se niegue y explique que no puede generar información engañosa.

Esto se debe a que OpenAI ha diseñado ChatGPT con barreras de seguridad para evitar su uso indebido. Sin embargo, esto también significa que OpenAI tiene el control total sobre lo que ChatGPT puede decir y lo que no, lo que plantea preguntas sobre hasta qué punto puede influenciar la información que la gente recibe sin que se dé cuenta.

Por otro lado, DeepSeek es un robot sin reglas fijas. Como cualquier persona puede descargarlo y modificarlo, alguien con conocimientos técnicos podría eliminar cualquier filtro de seguridad y usarlo sin restricciones. En este caso, si una persona quisiera crear un gran número de artículos falsos sobre un evento político inexistente, DeepSeek modificado podría hacerlo sin problemas, generando información manipulada que parece legítima. Esto lo convierte en una herramienta muy poderosa, pero también muy peligrosa en manos equivocadas.

Aquí es donde surge la gran diferencia entre ambos modelos. ChatGPT es un robot con un solo jefe (OpenAI), que decide qué información es válida y cuál no. DeepSeek, en cambio, es un robot que cualquiera puede tomar y modificar. Esto nos lleva a una pregunta importante: ¿qué es más peligroso, el control total de la información o la ausencia de control?

La respuesta no es sencilla. ChatGPT podría ser peligroso si OpenAI decide filtrar información de manera estratégica y la gente confía en él sin cuestionarlo. Por otro lado, DeepSeek podría ser riesgoso si cae en manos de personas o grupos que lo usen para desinformar sin restricciones.

Pero más allá de cuál es más peligroso, lo realmente importante es preguntarnos cómo podemos protegernos de la desinformación en un mundo donde la inteligencia artificial está cambiando la manera en que consumimos información.

La mejor herramienta para evitar ser manipulados no es la tecnología, sino el pensamiento crítico. Siempre es necesario verificar la información en varias fuentes, analizar quién la pública y cuestionar los datos que nos presentan.

La inteligencia artificial es una herramienta impresionante, capaz de mejorar nuestras vidas de muchas formas, pero también puede ser utilizada para influenciar la opinión pública. Por eso, en lugar de temerle, debemos aprender a usarla con inteligencia y responsabilidad. Al final, la IA no decide qué creer… eso sigue siendo nuestra elección.

 

Comentarios
¡Comentario enviado exitosamente!

Chat Online