En los últimos años, los modelos de lenguaje basados en inteligencia artificial han dejado de ser curiosidades académicas para convertirse en herramientas de uso cotidiano. Hoy se integran en rutinas profesionales, tareas creativas y procesos editoriales con una naturalidad pasmosa. Y, sin embargo, por más que los utilicemos a diario, no conviene olvidar una verdad sencilla: escriben, pero no piensan.
Lo sé por experiencia propia. Utilizo estos modelos todos los días como apoyo en mi trabajo: revisan textos, sugieren estructuras más claras y detectan inconsistencias argumentales. En muchos sentidos, mejoran la forma. Pero no crean el fondo. Porque, aunque logren imitar el estilo, la voz o la lógica de una pieza editorial, no pueden aportar lo más importante: el criterio, la sensibilidad o el punto de vista que solo una persona puede generar.
Hoy, los tres grandes modelos del mercado —GPT, Claude y Gemini— ofrecen capacidades notables. GPT, de OpenAI, es excepcional para estructurar ideas complejas y dar coherencia narrativa a un argumento técnico o extenso. Es como un buen editor ejecutivo: ordena, depura y sugiere. Claude, desarrollado por Anthropic, brilla por su respeto al tono original y su talento para sintetizar sin empobrecer. Gemini, de Google, se destaca por su visión panorámica, su capacidad de contraste y su habilidad para conectar un tema con sus implicaciones sociales o políticas.
Cada uno tiene fortalezas específicas. Pero todos tienen una limitación común: ninguna inteligencia artificial —ni ahora ni a corto plazo— posee experiencia vital. Ninguna ha sentido el peso de una decisión difícil, ni ha aprendido del error, ni ha experimentado la ironía sutil de una contradicción humana. Su conocimiento es técnico y estadístico, no vivencial ni ético.
La creatividad, entendida no solo como ocurrencia estética sino como capacidad de generar sentido, sigue siendo terreno humano. Solo una persona puede establecer una analogía nacida de su historia, encontrar una conexión entre temas que no parecían relacionados o construir un argumento persuasivo a partir de una intuición. La IA puede proponer, pero no decidir. Puede acelerar, pero no reemplazar.
En Panamá y en el mundo, esta discusión no es menor. A medida que los modelos se incorporan a medios, empresas y espacios educativos, debemos distinguir entre delegar una tarea y renunciar al pensamiento. La ventaja competitiva no está en usar IA, sino en saber qué pedirle, qué aceptar y qué jamás delegar.
Porque la tecnología puede ayudarnos a escribir mejor. Pero solo un ser humano puede decir algo que realmente valga la pena ser leído.
El autor es estratega en tecnología, innovación y transformación digital.

