Regístrate para recibir los titulares de La Prensa en tu correo

Advierten sobre los riesgos de realizar ciertas preguntas a inteligencias artificiales como ChatGPT

Advierten sobre los riesgos de realizar ciertas preguntas a inteligencias artificiales como ChatGPT
ChatGPT es un chatbot o asistente conversacional de inteligencia artificial (IA) desarrollado por OpenAI. Foto/Pixabay

Conversar con una inteligencia artificial como ChatGPT puede parecer una experiencia revolucionaria: responde con rapidez, comprende contextos complejos y hasta redacta textos completos.

Sin embargo, especialistas en ciberseguridad recuerdan que estas herramientas no tienen conciencia ni emociones, y que su uso debe hacerse con responsabilidad. En este sentido, ESET, compañía de software de ciberseguridad, advierte sobre los riesgos que implica hacer ciertas preguntas a la inteligencia artificial.

De acuerdo con Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica, es fundamental saber qué tipo de consultas evitar, especialmente cuando se trata de información sensible.

“Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT”, subraya.

Aunque las plataformas permiten desactivar el uso de los datos compartidos para el entrenamiento de los modelos, muchas veces los usuarios no modifican esta configuración. Si una cuenta es comprometida por ciberdelincuentes, todo lo conversado puede quedar expuesto.

Entre las preguntas que no se deberían hacer, ESET menciona aquellas que incluyen datos personales, bancarios o confidenciales, tanto a nivel individual como corporativo. También desaconseja utilizar la IA como fuente principal para asesoramiento médico, legal o financiero.

“La IA puede ser útil para ofrecer información general, pero no reemplaza a profesionales calificados que pueden evaluar cada caso en detalle”, recuerda Gutiérrez Amaya.

Asimismo, la empresa aclara que preguntas que requieren sentimientos, juicios personales o decisiones importantes deben dirigirse a personas reales. Aunque la IA simula empatía mediante lenguaje natural, sus respuestas son producto de algoritmos y no de una comprensión emocional auténtica.

Por ello, ESET recomienda utilizar estas herramientas como apoyo y no como una guía definitiva, procurando siempre cuidar la privacidad, validar la información y buscar el consejo de expertos en temas delicados o personales.


LAS MÁS LEÍDAS

  • Excontralor Solís rompe el silencio sobre Panama Ports: se distancia de la prórroga al contrato y defiende su auditoría. Leer más
  • Ordenan secuestro de cuentas y bienes de grupos ambientalistas por caso Puerto Barú. Leer más
  • Precedente judicial: Tribunal revoca suspensión salarial y de cargo a docente. Leer más
  • Tercer pago del PASE-U: fechas, lugares y requisitos para cobrar esta semana. Leer más
  • Agroferias del IMA: dónde comprar este miércoles 4 de febrero. Leer más
  • Agroferias del IMA: horario y lugares de venta para este martes 3 de febrero. Leer más
  • Un testigo no pudo declarar en el juicio de Odebrecht, porque el consulado no confirmó su identidad. Leer más