Ciencia y Tecnología
La razón por la que decirle a ChatGPT "por favor" y "gracias" le está costando millones a la compañía
Hay muchos usuarios que le dicen cosas innecesarias a los chatbots que no solo no aportan más valor a la conversación, sino que están suponiendo un enorme gasto para las compañías propietarias de esta tecnología
22 de abril de 2025
Ciencia y Tecnología.- Poco a poco son más los usuarios que comienzan a usar la Inteligencia Artificial en su día a día, ya sea para su entretenimiento o para su trabajo, pero es innegable que la adopción de esta tecnología es cada vez mayor.


Y como en todo, hay gente que es más experta que otra a la hora de interactuar con la IA, y hay personas que saben mejor como hablarle a la IA para conseguir mejores resultados. Del mismo modo, que hay muchos usuarios que le dicen cosas innecesarias a los chatbots que no solo no aportan más valor a la conversación, sino que están suponiendo un enorme gasto para las compañías propietarias de esta tecnología.

Esto es porque una parte de los usuarios de los chatbots saluda y da las gracias cuando interacciona con ellos, la cosa es que esta muestra de educación (que no sirve para nada) tiene un coste económico, de "decenas de millones de dólares" en el caso de OpenAI.

Así lo ha asegurado su CEO, Sam Altman, quien entiende a las personas que lo hacen y de hecho bromea que es algo que está bien hecho porque no sabemos si en el futuro, "cuando las máquinas tomen el control" recordarán a aquellos usuarios que han sido amables con ellos e irán a por lo que no lo fueron.

Pero fuera de estos supuestos en los que las máquinas toman el control del mundo, el director de Diseño de Microsoft Copilot, Kurtis Beavers, ya explicó que el uso de estas expresiones establece el tono en la interacción con la IA, de tal forma que si el usuario es educado, el "chatbot" también lo será, debido, sobre todo, a que ha sido entrenado con ejemplos de conversaciones y a su capacidad para predecir a partir de lo que indica el usuario.

Sin embargo, esta muestra de civismo, al final amplía la interacción del usuario con los "chatbots", es decir, al incluir más palabras o interacciones (por muy simples que sean) la IA tiene que analizar más texto y trabajar más, lo que tiene un coste real para las empresas que desarrollan esta tecnología, por el consumo energético vinculado.

"Decenas de millones de dólares", en el caso de OpenAI y ChatGPT, que, según su director ejecutivo, Sam Altman, están "bien gastados" porque "nunca se sabe", como ha expresado en la red social X (antes Twitter), en respuesta a la pregunta de un usuario de la red social.
Sigue la información minuto a minuto en nuestro Telegram Instagram Facebook Twitter ¡La noticia en tus manos!
VÍA NT
FUENTE El Economista