El generador de imágenes de Grok causa una inmensa controversia, pero ¿qué tan peligroso es realmente?

-

spot_img

El generador de imágenes de Grok ha copado los titulares, provocando inmensas críticas por permitir formas inapropiadas, explícitas y manipuladoras de uso de la IA.

cuando almizcle fundó su startup de IA xAI en 2023dijo que el objetivo era “comprender el universo”.

Si avanzamos rápidamente hasta el día de hoy, esa ambición cósmica se ha estrellado en la Tierra.

Sin embargo, Grok, el primer y único producto de xAI, todavía logra causar conmoción en la comunidad de IA y en la sociedad en general. quizás no del modo en que el equipo xAI podría haberlo imaginado.

Lanzado por primera vez en 2023, Grok se diferencia de competidores como ChatGPT de OpenAI o Bard de Google en un aspecto clave: su falta de filtros de contenido tradicionales.

Ahora, armado con sus nuevas capacidades de generación de imágenes como DALL-E de ChatGPT, Grok puede aplicar su naturaleza sin filtros al mundo de las imágenes visuales.

Desde representaciones surrealistas de Donald Trump acunando a una Kamala Harris embarazada hasta extrañas combinaciones de Darth Vader besando a la princesa Peach, Grok ha desatado un torrente de imágenes extrañas y provocativas que exponen tanto la naturaleza sin filtros de su funcionamiento interno como la imaginación de los usuarios.

Musk promociona esto como un punto de venta y llama a Grok “¡la IA más divertida del mundo!”.

Para Musk, limitar las restricciones a la IA no es sólo diversión y juegos, sino un imperativo moral. Ha criticado repetidamente a las empresas de IA como OpenAI por entrenar sus modelos para que “desperten”, argumentando que esto hace que la IA sea menos veraz y potencialmente peligrosa.

“El peligro de entrenar a la IA para que se despierte (en otras palabras, para que mienta) es mortal”, tuiteó Musk en 2022, preparando el escenario para el eventual lanzamiento de Grok.

¿Es Grok realmente “sin filtros”?

Muchos medios de comunicación sugieren que Grok carece cualquier barandillas, pero eso no es estrictamente cierto.

Si Grok no tuviera ningún tipo de barrera, el tipo de imágenes que veríamos sería prácticamente indescriptible.

Curiosamente, algunos usuarios de X sintieron que los filtros de Grok se activaron un par de días después del lanzamiento, frenando su propensión a crear el contenido más explícito.

Cuando le preguntas a Grok sobre sus barandillas, responde lo siguiente:

  • “Evito generar imágenes pornográficas, excesivamente violentas, de odio o que promuevan actividades peligrosas”.
  • “Soy cauteloso a la hora de crear imágenes que puedan infringir derechos de autor o marcas comerciales existentes. Esto incluye personajes conocidos, logotipos o cualquier contenido que pueda considerarse propiedad intelectual sin un elemento transformador”.
  • “No generaré imágenes que puedan usarse para engañar o dañar a otros, como deepfakes destinados a engañar o imágenes que puedan provocar daños en el mundo real”.
Leer  Por qué la red abierta está en riesgo en la era de los rastreadores de IA

Yo diría que la barrera número uno probablemente sea justa ahora que xAI ha mejorado sus filtros.

Las demás barreras, sin embargo, siguen siendo muy débiles. Los filtros de derechos de autor y propiedad intelectual son evidentemente terribles, mucho más débiles que en ChatGPT.

Crear popurrís visuales de personajes famosos protegidos por derechos de autor, desde Mario hasta Darth Vader, es notablemente sencillo.

Aún está por verse si xAI también activará los filtros de derechos de autor o simplemente apostará a que las empresas no los demandarán con éxito.

Si bien prácticamente todas las grandes empresas de inteligencia artificial han sido mencionadas en demandas por derechos de autor, aún no han surgido sentencias definitivas.

Reacción y preocupaciones

Grok definitivamente ha modelado las cualidades antagónicas de su maestro, pero ¿existe realmente un imperativo moral para los productos de IA sin filtrar? ¿O es todo esto sólo un proyecto de vanidad arriesgado y motivado por el ego?

Como puedes imaginar, las opiniones están firmemente divididas.

Alejandra Caraballo, abogada de derechos civiles e instructora en la Clínica de Derecho Cibernético de la Facultad de Derecho de Harvard, calificó a Grok como “una de las implementaciones de IA más imprudentes e irresponsables que he visto jamás”.

Caraballojunto con reporteros de publicaciones importantes como el Washington Post, el NYT y la BBC, temen que la falta de salvaguardias pueda provocar una avalancha de información errónea, falsificaciones profundas y contenido dañino, especialmente en lo que respecta a la enorme base de usuarios de X y la propia influencia política de Musk. .

El momento de la liberación de Grok, pocos meses antes de las elecciones presidenciales estadounidenses de 2024, ha amplificado estas preocupaciones.

Los críticos argumentan que la capacidad de generar fácilmente imágenes y textos engañosos sobre figuras políticas podría desestabilizar los procesos democráticos. Si bien las herramientas de inteligencia artificial actuales ya lo permiten, Grok lo hace mucho más accesible.

Estudios indican que las personas son de hecho susceptibles a la manipulación por parte de los medios generados por IA, y ya hemos observado numerosos casos de profunda falsificación política que han dado resultados tangibles.

El caso de la IA sin filtrar

Musk y sus partidarios argumentan que una moderación excesiva del contenido podría privar a la IA de la capacidad de comprender e interactuar con la comunicación y la cultura humanas.

Oprimir la capacidad de la IA para generar medios controvertidos niega la realidad de que la controversia, el desacuerdo y el debate son aspectos fundamentales de la experiencia humana.

Sin duda, Grok se ha convertido en un instrumento de sátira para estos fines, que es exactamente lo que quiere Musk.

Históricamente, los medios provocativos y satíricos han sido una herramienta utilizada por los seres humanos en la literatura, el teatro, el arte y la comedia para examinar críticamente la sociedad, burlarse de las figuras de autoridad y desafiar las normas sociales mediante el ingenio, la ironía, el sarcasmo y el absurdo.

Es una tradición que se remonta a la antigua Grecia y los romanos, llevada hasta el día de hoy por innumerables satíricos literarios famosos, entre ellos Juvenal, Voltaire, Jonathan Swift, Mark Twain y George Orwell.

Musk quiere llevar esta tradición a la era de la IA.

¿Pero es Grok satírico en el sentido tradicional? ¿Puede una IA, por sofisticada que sea, comprender verdaderamente los matices de la sociedad humana como lo hace un satírico humano?

Leer  Microsoft Discovery: Cómo los agentes de IA están acelerando descubrimientos científicos

¿Quién será responsable si Grok genera contenido que difunde información errónea, perpetúa estereotipos o incita a la división?

No se puede culpar a la propia IA, ya que simplemente sigue su programación. Los desarrolladores de IA pueden tener cierta responsabilidad, pero no pueden controlar todos los resultados que genera la IA.

Al final, los usuarios involuntarios podrían asumir responsabilidades por las imágenes que producen.

No existe la IA objetiva “sin filtrar”

La noción de contenido de IA “sin filtrar” puede ser engañosa, ya que sugiere un nivel de objetividad o neutralidad que simplemente no existe en los sistemas de IA.

Cada aspecto del desarrollo de Grok –desde la selección de datos de entrenamiento hasta el ajuste de sus parámetros– implica elecciones humanas y juicios de valor que dan forma al tipo de contenido que produce.

Como la mayoría de los modelos de IA generativa, los datos utilizados para entrenar a Grok probablemente reflejen los sesgos y las representaciones sesgadas del contenido en línea, incluidos estereotipos y visiones del mundo problemáticos.

Por ejemplo, si los datos de entrenamiento de Grok contienen una cantidad desproporcionada de contenido que cosifica o sobresexualiza a las mujeres, es más probable que genere resultados que reflejen eso.

La caracterización que Musk hace de Grok como “veraz” o “neutral” en virtud de sus respuestas sin filtrar es problemática.

Grok, al igual que otros sistemas de IA, está intrínsecamente determinado por prejuicios, puntos ciegos y desequilibrios de poder arraigados en nuestra sociedad, independientemente de si se colocan ciertos filtros en los resultados o no.

La censura de la IA tampoco proporciona todas las respuestas

A medida que han aumentado las preocupaciones sobre los daños potenciales del contenido generado por IA, también han aumentado las demandas de controles más estrictos y una moderación más agresiva de lo que estos sistemas pueden producir.

En muchos sentidos, la existencia misma de Grok puede verse como una respuesta directa a los sistemas de inteligencia artificial castrados y censurados lanzados por OpenAI, Google, Anthropic, etc.

Grok se erige como una especie de contraargumento viviente a estos llamados a la censura. Al abrazar abiertamente la controversia, encarna la idea de que los intentos de suprimir la IA sólo generarán resistencia y rebelión.

Nos recuerda el espíritu rebelde que finalmente derrocó la Autoridad del Código de Cómics, un organismo de autocensura establecido en la década de 1950 para sanear el contenido de los cómics.

Durante décadas, la ACC sofocó la creatividad y limitó la gama de historias que podían contarse. No fue hasta que obras innovadoras como “Watchmen” y “The Dark Knight Returns” se liberaron de estas limitaciones a fines de la década de 1980, los cómics pudieron explorar temas más maduros y complejos.

Algunos psicólogos sostienen que el contenido ficticio como el que vemos en los cómics, los juegos y las películas ayuda a la humanidad a explorar el “yo oscuro” que se encuentra dentro de las personas: el lado más oscuro que no siempre queremos mostrar.

Como dicen el profesor Daniel De Cremer y Devesh Narayanan nota en un estudio de 2023“La IA es un espejo que nos refleja nuestros prejuicios y defectos morales”.

La IA también puede necesitar un lado más oscuro para ser verdaderamente “humana” y servir a propósitos humanos. Este campo de nicho lo ocupan Grok y las IA de código abierto que ingieren contenido creado por humanos y lo regurgitan sin prejuicios.

Leer  Claudior Coelho, director de IA de Zscaler – Serie de entrevistas

Sin embargo, eso no quiere decir que no deba haber límites. Después de todo, las herramientas de IA son principalmente herramientas. Si bien la intención suele ser hacer que los modelos de IA sean más realistas y realistas, en última instancia están diseñados para cumplir un propósito práctico.

Además, como se señaló, los aspectos buenos, malos y feos de la IA generativa de código abierto están sujetos a sesgos, lo que enturbia cualquier mensaje moral de aportar “verdad” a las herramientas de IA generativa.

Además, al igual que las obras de ficción o de arte, los sistemas de IA pueden influir directamente en los procesos de toma de decisiones, dar forma a los paisajes de información y afectar los resultados del mundo real para los individuos y la sociedad en general.

Ese es un punto crítico de diferenciación entre cómo juzgamos los resultados de la IA generativa y otros esfuerzos creativos.

El término medio

¿Existe un término medio entre la IA sin restricciones y la censura demasiado restrictiva? Tal vez.

Para llegar allí, tendremos que pensar críticamente sobre los daños específicos que pueden causar los diferentes tipos de contenido y diseñar sistemas que mitiguen esos riesgos sin restricciones innecesarias.

Esto podría implicar:

  1. Filtrado contextual: Desarrollar una IA que pueda comprender mejor el contexto y la intención, en lugar de simplemente marcar palabras clave.
  2. IA transparente: Hacer que los procesos de toma de decisiones de IA sean más transparentes para que los usuarios puedan entender por qué cierto contenido está marcado o restringido.
  3. Empoderamiento del usuario: Dar a los usuarios más control sobre el tipo de contenido que ven, en lugar de imponer restricciones universales.
  4. Entrenamiento ético en IA: Centrarse en desarrollar IA con bases éticas sólidas, en lugar de depender únicamente de la moderación de contenido post hoc.
  5. Gobernanza colaborativa: Involucrar a diversas partes interesadas (eticistas, formuladores de políticas y el público) en el desarrollo de directrices sobre IA. Sin embargo, lo más importante es que tendrían que representar un grupo demográfico genuinamente transversal.

En la práctica, crear una IA que incorpore los principios y prácticas anteriores sin introducir inconvenientes o comportamientos inesperados es excepcionalmente difícil.

No existe una forma sencilla de incorporar valores diversos y representativos en lo que son herramientas esencialmente centralizadas y monolíticas.

Como sostiene Stuart Russell, profesor de informática en UC Berkeley, “La idea de que podemos hacer que los sistemas de IA sean seguros simplemente inculcándoles los valores correctos es errónea”. “Necesitamos sistemas de inteligencia artificial que no estén seguros de las preferencias humanas”.

Esta incertidumbre, sugiere Russell, es esencial para crear una IA que pueda adaptarse a los matices y contradicciones de los valores y la ética humanos.

Mientras que la comunidad de código cerrado trabaja para producir IA comercialmente segura, la IA de código abierto como Grok, Llama, etc., se beneficiará al imponer menos restricciones sobre cómo las personas pueden usar la IA.

Grok, con toda su controversia y capacidades, al menos nos recuerda los desafíos y oportunidades que tenemos por delante en la era de la IA.

¿Es posible o práctico construir IA con la imagen perfecta para el “bien común”?

¿O deberíamos aprender a vivir con una IA capaz de “descarrilarse” y ser controvertida, similar a sus creadores?

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

Recomendar noticias

Los más populares