-
R1 1776 es un modelo de código abierto en el que Perplexity AI ajustó finamente el modelo de razonamiento DeepSeek-R1 para eliminar la censura del Partido Comunista Chino.
-
Se caracteriza por mantener sus capacidades de matemáticas/razonamiento mientras busca ofrecer información precisa y sin sesgos.
-
Actualmente, el modelo puede descargarse desde huggingface.
-
Se utilizó un conjunto de evaluación compuesto por más de 1,000 ejemplos multilingües para medir la capacidad de evadir la censura (combinando evaluadores humanos + LLM judge)
-
Puede responder sin evasivas sobre temas sensibles como política, sociedad y derechos humanos en China
-
Incluso después del proceso de descensura, mantiene un rendimiento equivalente al modelo base en benchmarks como MATH/GPQA
7 comentarios
¿Entonces ni siquiera en las empresas coreanas restringen su uso?
Está muy bien ^o^
¿Lo habrán entrenado exactamente igual, como aparece en el documento de DeepSeek?
Parece que el propio modelo de razonamiento DeepSeek-R1 es de código abierto.
Solo se publica el modelo ya entrenado; como no se publican los datos originales, no es "open source". Aunque de forma limitada, sí se puede hacer entrenamiento adicional o modificar un modelo ya entrenado, y esta versión que salió ahora está modificada de esa manera.
Por eso prefiero más el término open weight.
Siempre hay alguien mejor.