La etiqueta de IA viene con un precio, dice Altman, pero ¿vale la pena?

-

spot_img

El CEO de Operai, Sam Altman, ha revelado que simplemente ser educado para ChatGPT podría estar costando “decenas de millones de dólares” en recursos informáticos adicionales.

Cuando se le preguntó mucho dinero, Openai ha perdido en los costos de electricidad de las personas que dicen “por favor” y “gracias” a sus modelos de IA, Altman respondió: “Decenas de millones de dólares bien gastados. Nunca se sabe”.

Cada palabra enviada a ChatGPT, incluso cortesías comunes, requiere un poder de procesamiento adicional. Incluso Las interacciones aparentemente pequeñas se suman rápidamente en miles de millones de conversaciones, lo que aumenta los costos de electricidad y el uso del servidor

Los modelos de IA dependen en gran medida de los centros de datos colosales que ya representan aproximadamente el 2% del consumo mundial de electricidad, y se espera que esto suba, con IA potencialmente drenando la misma cantidad de energía que un país industrializado como Japón.

Según una investigación del Washington Post realizada en colaboración con los investigadores de la Universidad de California, la generación de un solo correo electrónico de 100 palabras con IA requiere 0.14 kilovatios-hora de electricidad, lo suficiente como para alimentar 14 luces LED durante una hora. A escala, estas pequeñas interacciones crean una huella de energía masiva.

El uso del agua es igualmente llamativo. Los investigadores de UC Riverside descubrieron que usar GPT-4 para generar 100 palabras consume hasta tres botellas de agua para enfriar los servidores, e incluso una simple respuesta de tres palabras como “Usted es bienvenida” usa aproximadamente 1.5 onzas de agua.

Leer  Cómo hacer que Chatgpt hable normalmente

¿Por qué los usuarios son educados con las máquinas?

La evidencia sugiere que las personas están intentando genuinamente practicar una etiqueta sólida de IA. Una encuesta de finales de 2023 encontró que el 67% de los encuestados de EE. UU. Informaron que eran amables con sus chatbots.

De aquellos que practican la cortesía digital, el 55% dijo que lo hacen “porque es lo correcto”, mientras que un 12% más cauteloso admitió haberlo hecho para “apaciguar el algoritmo en el caso de un levantamiento de IA”. La IA ha recorrido un largo camino desde 2023, y hemos visto que muchas teorías del fin del mundo llegan a los titulares, ¡así que esa cifra podría ser mucho más alta ahora!

En lugar de que la etiqueta de AI sea puramente una materia psicológica o conductual, Un estudio realizado por investigadores de la Universidad de Waseda encontró que el uso de indicaciones educadas en realidad puede producir respuestas de mayor calidad de modelos de idiomas grandes (LLM).

Los LLM están entrenados en interacciones humanas, después de todo; “Los LLM reflejan el deseo humano de ser respetado hasta cierto punto”, explican los investigadores.

El elemento humano

Más allá del rendimiento técnico, algunos expertos argumentan que hay valor en mantener la cortesía hacia la IA por nuestro propio bien. UCantar lenguaje irrespetuoso con IA podría normalizar la grosería en nuestras interacciones humanas.

Este fenómeno ya se ha observado con asistentes de voz anteriores. Algunos padres han informado que sus hijos se vuelven menos respetuosos después de acostumbrarse a los comandos de ladridos en Siri o Alexa, lo que lleva a Google a presentar su característica “bonita por favor” para fomentar la cortesía entre los niños en 2018.

Leer  El papel de la IA en la edición de genes

Entonces, ya sea que sea amable con su IA por razones de rendimiento, mejores prácticas de etiqueta o para permanecer en el lado derecho de la IA en caso de una adquisición de matriz, solo tenga en cuenta que cada interacción tiene un costo.

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

Recomendar noticias

Los más populares