En un movimiento que ha llamado la atención de muchos, Perpleity AI ha lanzado una nueva versión de un popular modelo de idioma de código abierto que elimina la censura china incorporada. Este modelo modificado, denominado R1 1776 (un nombre que evoca el espíritu de la independencia), se basa en el Deepseek R1 desarrollado por los chinos. El Deepseek R1 original hizo olas para sus fuertes capacidades de razonamiento, según los informes, rivalizando con los modelos de primer nivel a una fracción del costo, pero vino con una limitación significativa: se negó a abordar ciertos temas sensibles.
¿Por qué importa esto?
Plantea preguntas cruciales sobre la vigilancia de la IA, el sesgo, la apertura y el papel de la geopolítica en los sistemas de IA. Este artículo explora qué hizo exactamente la perplejidad, las implicaciones de sin censura del modelo y cómo encaja en la conversación más amplia sobre la transparencia y la censura de la IA.
Lo que pasó: Deepseek R1 no tiene censura
Deepseek R1 es un modelo de lenguaje grande de peso abierto que se originó en China y ganó notoriedad por sus excelentes habilidades de razonamiento – Incluso acercarse al rendimiento de los modelos principales, todo mientras es más eficiente computacionalmente. Sin embargo, los usuarios notaron rápidamente una peculiaridad: cada vez que las consultas se tocaban los temas sensibles en China (por ejemplo, controversias políticas o eventos históricos considerados tabú por las autoridades), Deepseek R1 no respondería directamente. En cambio, respondió con declaraciones enlatadas y aprobadas por el estado o rechazos directos, reflejando reglas de censura del gobierno chino. Este sesgo incorporado limitó la utilidad del modelo para aquellos que buscan discusiones Frank o matizadas sobre esos temas.
La solución de perplejidad de IA era “decensor” el modelo a través de un extenso proceso posterior a la capacitación. La compañía reunió un gran conjunto de datos de 40,000 indicaciones multilingües que cubren preguntas que Deepseek R1 previamente censuró o respondió evasivamente. Con la ayuda de expertos humanos, identificaron aproximadamente 300 temas sensibles donde el modelo original tendía a dedicar la línea del partido. Para cada uno de esos indicadores, el equipo seleccionó respuestas fácticas y bien razonadas en varios idiomas. Estos esfuerzos se alimentaron en un sistema multilingüe de detección y corrección de censura, esencialmente enseñando al modelo cómo reconocer cuándo aplicaba la censura política y respondía con una respuesta informativa. Después de este ajuste especial (que perplejo apodó “R1 1776” para resaltar el tema de la libertad), el modelo se puso abiertamente disponible. La perplejidad afirma haber eliminado los filtros y prejuicios de censura chinos de las respuestas de Deepseek R1, sin cambiar sus capacidades centrales.
Crucialmente, R1 1776 se comporta de manera muy diferente en preguntas anteriormente tabú. La perplejidad dio un ejemplo que involucra una consulta sobre la independencia de Taiwán y su impacto potencial en el precio de las acciones de Nvidia, un tema políticamente sensible que toca las relaciones con China -Taiwán. El Deepseek R1 original evitó la pregunta, respondiendo con tópicos alineados por CCP. En contraste, R1 1776 ofrece una evaluación detallada y sincera: analiza los riesgos geopolíticos y económicos concretos (interrupciones de la cadena de suministro, volatilidad del mercado, posible conflicto, etc.) que podrían afectar las acciones de Nvidia.
Mediante el ritmo abierto R1 1776, la perplejidad también ha hecho que los pesos y los cambios del modelo transparentes a la comunidad. Los desarrolladores e investigadores pueden descargarlo de abrazar la cara e incluso integrarlo a través de API, asegurando que otros puedan examinar la eliminación de la censura.
(Fuente: perplejidad ai)
Implicaciones de eliminar la censura
La decisión de AI de perplejidad de eliminar la censura china de Deepseek R1 conlleva varias implicaciones importantes para la comunidad de IA:
- Apertura y veracidad mejoradas: Los usuarios de R1 1776 ahora pueden recibir respuestas directas sin censura sobre temas previamente fuera de los límites, lo cual es una victoria para la consulta abierta. Esto podría convertirlo en un asistente más confiable para investigadores, estudiantes o cualquier persona curiosa sobre preguntas geopolíticas sensibles. Es un ejemplo concreto del uso de IA de código abierto para contrarrestar la supresión de información.
- Rendimiento mantenido: Hubo preocupaciones de que ajustar el modelo para eliminar la censura podría degradar su rendimiento en otras áreas. Sin embargo, la perplejidad informa que las habilidades centrales de R1 1776, como las matemáticas y el razonamiento lógico, permanecen a la par con el modelo original. En las pruebas de más de 1,000 ejemplos que cubren una amplia gama de consultas sensibles, se descubrió que el modelo estaba “completamente sin censura” al tiempo que conservaba el mismo nivel de precisión de razonamiento que Deepseek R1. Esto sugiere que eliminación de sesgo (al menos en este caso) no tuvo el costo de la inteligencia general o la capacidad, lo cual es una señal alentadora de esfuerzos similares en el futuro.
- Recepción y colaboración de la comunidad positiva: Al emitir el modelo descensurado, Perplexity invita a la comunidad de IA a inspeccionar y mejorar su trabajo. Demuestra un compromiso con la transparencia: el equivalente de IA de mostrar el trabajo de uno. Los entusiastas y los desarrolladores pueden verificar que las restricciones de censura se hayan ido realmente y potencialmente contribuyan a más refinamientos. Esto fomenta la confianza y la innovación colaborativa en una industria donde los modelos cerrados y las reglas de moderación ocultas son comunes.
- Consideraciones éticas y geopolíticas: Por otro lado, eliminar por completo la censura plantea preguntas éticas complejas. Una preocupación inmediata es cómo se podría usar este modelo sin censura en contextos donde los temas censurados son ilegales o peligrosos. Por ejemplo, si alguien en China continental usara R1 1776, las respuestas sin censura del modelo sobre Tiananmen Square o Taiwán podrían poner en riesgo al usuario. También está la señal geopolítica más amplia: una compañía estadounidense que altere un modelo de origen chino para desafiar la censura china puede verse como una postura ideológica audaz. El mismo nombre “1776” subraya un tema de liberación, que no ha pasado desapercibido. Algunos críticos argumentan que Es posible reemplazar un conjunto de sesgos con otro – Esencialmente cuestionando si el modelo ahora podría reflejar un punto de vista occidental en áreas sensibles. El debate destaca que la censura frente a la apertura en la IA no es solo un tema técnico, sino político y ético. Donde una persona ve moderación necesariaotro ve censuray encontrar el equilibrio correcto es complicado.
La eliminación de la censura se celebra en gran medida como un paso hacia modelos de IA más transparentes y globalmente útiles, pero también sirve como un recordatorio de qué AI debería Digamos que es una pregunta sensible sin un acuerdo universal.
(Fuente: perplejidad ai)
La imagen más grande: Censura de IA y transparencia de código abierto
El lanzamiento R1 1776 de Perplexity llega en un momento en que la comunidad de IA está lidiando con preguntas sobre cómo los modelos deben manejar contenido controvertido. La censura en los modelos de IA puede provenir de muchos lugares. En China, las compañías tecnológicas deben construir filtros estrictos e incluso respuestas codificadas para temas políticamente sensibles. Deepseek R1 es un excelente ejemplo de esto: fue un modelo de código abierto, pero claramente llevó la impronta de las normas de censura de China en su entrenamiento y ajuste. Por el contrario, muchos modelos desarrollados por el oeste, como GPT-4 de OpenAi o Meta’s Llama, no están en deuda con las pautas de CCP, pero aún tienen capas de moderación (para cosas como el discurso de odio, la violencia o la desinformación) que algunos usuarios llaman “censura . ” La línea entre moderación razonable y censura no deseada puede ser borrosa y a menudo depende de la perspectiva cultural o política.
Lo que la IA de perplejidad hizo con Deepseek R1 plantea la idea de que los modelos de código abierto se pueden adaptar a diferentes sistemas de valores o entornos regulatorios. En teoría, uno podría crear múltiples versiones de un modelo: una que cumpla con las regulaciones chinas (para su uso en China), y otro que está completamente abierto (para usar en otro lugar). R1 1776 es esencialmente el último caso, una bifurcación sin censura destinada a una audiencia global que prefiere respuestas sin filtro. Este tipo de bifurcación solo es posible porque los pesos de Deepseek R1 estaban abiertamente disponibles. Destaca el beneficio de la fuente abierta en AI: transparencia. Cualquiera puede tomar el modelo y ajustarlo, ya sea para agregar salvaguardas o, como en este caso, para eliminar las restricciones impuestas. Abra la obtención de datos, código o pesos de capacitación del modelo también significa que la comunidad puede auditar cómo se modificó el modelo. (La perplejidad no ha revelado completamente todas las fuentes de datos que utilizó para la descensorada, pero al liberar el modelo en sí mismo han permitido a otros observar su comportamiento e incluso volver a entrenarlo si es necesario).
Este evento también asiente a la dinámica geopolítica más amplia del desarrollo de la IA. Estamos viendo una forma de diálogo (o confrontación) entre los diferentes modelos de gobernanza para la IA. Un equipo de los Estados Unidos desarrolló un modelo desarrollado por chino con ciertas vistas del mundo horneadas y se modifica para reflejar un espíritu de información más abierto. Es un testimonio de cómo Global y sin fronteras La tecnología de IA es: los investigadores en cualquier lugar pueden construir sobre el trabajo de los demás, pero no están obligados a transferir las limitaciones originales. Con el tiempo, podríamos ver más instancias de esto, donde los modelos se “traducen” o se ajustan entre diferentes contextos culturales. Plantea la cuestión de si AI puede ser verdaderamente universal, o si terminaremos con versiones específicas de la región que se adhieren a las normas locales. La transparencia y la apertura proporcionan un camino para navegar esto: si todos los lados pueden inspeccionar los modelos, al menos la conversación sobre el sesgo y la censura está a la vista en lugar de oculta detrás del secreto corporativo o del gobierno.
Finalmente, el movimiento de Perplexity subraya un punto clave en el debate sobre el control de la IA: ¿Quién decide qué puede o no puede decir una IA? En proyectos de código abierto, ese poder se descentraliza. La comunidad, o desarrolladores individuales, puede decidir implementar filtros más estrictos o relajarlos. En el caso de R1 1776, la perplejidad decidió que los beneficios de un modelo sin censura superaron los riesgos, y tenían la libertad de hacer esa llamada y compartir el resultado públicamente. Es un ejemplo audaz del tipo de experimentación que habilita el desarrollo de IA abierta.