Tecnología

Sam Altman explica la razón por la que nunca tocaría darle las “gracias” a ChatGPT

Sam Altman sorprendió al revelar por qué evitaría decirle “gracias” a una inteligencia artificial como ChatGPT.

12 de julio de 2025, 2:28 a. m.
Detrás de la amabilidad con los chatbots se esconde un impacto técnico que el propio Altman no pasa por alto.
Un simple “gracias” podría representar millones en consumo computacional, según Altman. | Foto: Getty Images

En una era en la cual las interacciones con sistemas automatizados se han vuelto cotidianas, pequeños hábitos acumulados por millones de personas empiezan a llamar la atención.

Un comentario reciente, aparentemente trivial, provocó un debate que va más allá del lenguaje educado y toca aspectos técnicos, éticos y hasta económicos.

En medio del vertiginoso avance de la inteligencia artificial (IA), un comentario aparentemente inofensivo del CEO de OpenAI, Sam Altman, volvió a poner el foco en la forma como los humanos interactúan con estas herramientas.

Entre la cortesía digital y el costo invisible: el debate que desató una simple broma

La broma publicada en su cuenta de X sobre el uso de expresiones como “por favor” y “gracias” abrió un debate más profundo: ¿cuáles son los límites razonables al dialogar con una IA?

Según Altman, aunque cortesía y lenguaje educado parezcan inofensivos, también conllevan un costo: cada palabra adicional implica un consumo de recursos computacionales y cuando millones de personas escriben de forma innecesariamente extensa, ese gasto se multiplica. “Decenas de millones de dólares bien gastados”, fue su frase para dimensionar el impacto.

Más allá del chiste técnico, la situación ha desatado reflexiones en la industria. Diseñadores como Kurtis Beavers, de Microsoft, consideran que mantener un tono cordial promueve interacciones más productivas.

Los datos parecen respaldarlo: una encuesta publicada por TechRadar a finales de 2024 indicó que el 67 % de los usuarios estadounidenses procura ser amable al interactuar con sistemas de IA. Sin embargo, no todo lo que se puede preguntar debe preguntarse.

Preguntas que comprometen la seguridad o la legalidad

Existen consultas que, por su propia naturaleza, están fuera de los márgenes éticos y legales. Instrucciones para hackear cuentas, fabricar sustancias ilícitas o vulnerar sistemas informáticos no solo están prohibidas por los protocolos de cualquier IA responsable, sino que podrían implicar riesgos legales para quien las formula.

La inteligencia artificial está entrenada para rechazar estas peticiones, pero su sola mención puede generar registros que despierten alertas.

“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
Para el CEO de OpenAI, el gesto de cortesía hacia una IA no solo es innecesario, sino costoso. | Foto: adobe stock

De igual forma, pedir a un sistema de IA que realice diagnósticos médicos, predicciones financieras personales o consejos jurídicos detallados puede conducir a errores peligrosos. Aunque estos modelos procesan grandes volúmenes de información, no reemplazan la experiencia de profesionales humanos capacitados.

Consultas diseñadas para manipular o “probar los límites” del sistema

Otro tipo de preguntas que deberían evitarse es aquel orientado a confundir, desinformar o poner a prueba la IA con fines de burla.

Ejemplos frecuentes incluyen pedirle a la IA que elija entre dilemas morales extremos, que defina a personas reales en términos insultantes o que invente teorías conspirativas.

Aunque parezcan inocuas, estas solicitudes alimentan sesgos, propagan falsedades y pueden deteriorar la calidad de los modelos con el tiempo.

Incluso las bromas aparentemente inofensivas, como pedir que actúe como personajes ficticios para justificar discursos de odio o desinformación, generan consecuencias. Las IA aprenden de las interacciones humanas; distorsionar esa experiencia tiene un impacto.

Noticias relacionadas