¡Qué ho! Un muy buen bien de código abierto de la tierra del chocolate y los relojes
eth Zurich y EPFL, esos chaps inteligentes, han cocinado un LLM de peso abierto que es tan transparente como una copa de vino suizo fino. 🍷 ¡Construido sobre el cómputo verde, está listo para ser el brindis de la ciudad de IA!
Los modelos de idiomas grandes (LLM), esas redes neuronales inteligentes que predicen la siguiente palabra en una oración, son las rodillas de las abejas de la IA generativa de hoy. La mayoría de ellos, sin embargo, están tan cerrados como una almeja, utilizable por el público pero tan inspeccionable como una bóveda cerrada. Esta falta de transparencia es tan bienvenida como un fin de semana húmedo en el mundo de apertura e innovación sin permisos de Web3.
¡Pero aguanta los sombreros! ETH Zurich y el Swiss Federal Institute of Technology en Lausana (EPFL) han anunciado un modelo completamente público, capacitado en la supercomputadora de “Alpes” neutral en carbono de Suiza. Está programado para su lanzamiento bajo Apache 2.0 a finales de este año. ¡Tallyho!
Esta maravilla se llama “Suiza en LLM Open”, “un modelo de idioma construido para el bien público” o “el modelo de lenguaje grande suizo”, pero nadie está seguro de cómo llamarlo todavía. ¡Es como un bebé sin nombre, pero con 70 mil millones de parámetros! 😅
Un LLM de peso abierto, Must You, es aquel cuyos parámetros se pueden descargar, auditar y ajustar localmente, a diferencia de esos sistemas de “caja negra” de API-solo que son tan misteriosos como un giro de la trama de Jeeves.
La anatomía de esta belleza suiza
- Escala: dos configuraciones, 8 mil millones y 70 mil millones de parámetros, entrenados en 15 billones de tokens. ¡Eso es mucho queso, er, datos! 🧀
- Idiomas: Cubre 1,500 idiomas gracias a un conjunto de datos 60/40 inglés-no-inglés. ¡Es como un políglot en un cóctel! 🥂
- Infraestructura: 10,000 chips Nvidia Grace-Hopper en “Alpes”, alimentados completamente por energía renovable. ¡Verde como el campo suizo! 🌲
- Licencia: Abra el código y los pesos, permitiendo los derechos de la bifurcación y modificación para investigadores y nuevas empresas por igual. ¡Es el equivalente de IA de un buffet libre para todo! 🍽️
¿Qué hace que este Swiss LLM sea los bigotes del gato?
Este Swiss LLM combina la apertura, la escala multilingüe y la infraestructura verde como un maestro chef que combina la fondue perfecta. 🧀
- Arquitectura abierta por diseño: A diferencia de GPT-4, que ofrece solo acceso de API, esta LLM suiza proporciona todos sus parámetros de red neuronal (pesos), código de entrenamiento y referencias del conjunto de datos bajo una licencia APACHE 2.0. ¡Es como tener la receta de la salsa secreta! 🥄
- Tamaños de modelo dual: lanzado en 8 mil millones y 70 mil millones de versiones de parámetros. ¡Es como tener un bote de remo liviano y un yate de lujo a su disposición! 🚣️🛥️
- Alcance multilingüe masivo: entrenado en 15 billones de tokens en más de 1,500 idiomas, es la ONU de la IA, desafiando el dominio centrado en el inglés de GPT-4 con una inclusión verdaderamente global. 🌍
- Computo verde y soberano: construido sobre el clúster de Alpes Neutral de Carbon Neutral del Centro de Supercomputación Swiss, es tan sostenible como un reloj suizo. ⌚
- Prácticas de datos transparentes: cumple con la protección de datos suizos, las normas de derechos de autor y la Ley de AI de la UE. ¡Es el equivalente de IA de una seguridad de cuentas bancarias suizas y confiable! 💼
Lo que abre completamente desbloquea para Web3: un tesoro de posibilidades
La transparencia del modelo completo permite la inferencia de la cadena, los flujos de datos tokenizados y las integraciones defi seguras de Oracle-No se requieren cajas negras. ¡Es como tener una visión de rayos X en el mundo de la IA! 🦸️
- Inferencia de la cadena: Ejecutar versiones recortadas del modelo suizo dentro de los secuenciadores de rollup podría habilitar resumen de contrato inteligente en tiempo real y pruebas de fraude. ¡Es como tener un detective en la cadena de bloques! 🕵️♂️
- Mercados de datos tokenizados: Debido a que el corpus de capacitación es transparente, los contribuyentes de datos pueden ser recompensados con tokens y auditados por sesgo. ¡Es como un mercado de comercio justo para los datos! ⚖️
- Composibilidad con herramientas Defi: Los pesos abiertos permiten salidas deterministas que los oráculos pueden verificar, reduciendo el riesgo de manipulación cuando los modelos de precios de alimentación de LLMS o los bots de liquidación. ¡Es como tener un perro guardián para tus finanzas! 🐕
¿Sabías? Open-Weight LLMS puede ejecutarse dentro de los rollups, ayudando a los contratos inteligentes a resumir documentos legales o marcar transacciones sospechosas en tiempo real. ¡Es como tener un abogado y un detective en uno! 📜🕵️♂️
Vieles de cola del mercado de IA no puedes ignorar
- Se proyecta que el mercado de IA supere los $ 500 mil millones, con más del 80% controlado por proveedores cerrados. ¡Es como un monopolio, pero con robots! 🤖
- Se proyecta que Blockchain-AI crezca de $ 550 millones en 2024 a $ 4.33 mil millones para 2034 (22.9% de TCAG). ¡Eso es muchos ceros! 💰
- El 68% de las empresas ya pilotan agentes de IA, y el 59% cita la flexibilidad y la gobernanza del modelo como criterios de selección principales. ¡Es como si todos estuvieran saltando en el carro! 🚂
Regulación: la Ley de la UE AI se encuentra con el modelo soberano suizo
Public LLMS, como el próximo modelo de Suiza, están diseñados para cumplir con la Ley de AI de la UE, ofreciendo una clara ventaja en la transparencia y la alineación regulatoria. ¡Es como tener un boleto de oro para el cumplimiento! 🎟️
El 18 de julio de 2025, la Comisión Europea emitió una guía para los modelos de base de riesgo sistémico. Los requisitos incluyen pruebas adversas, resúmenes detallados de datos de capacitación y auditorías de seguridad cibernética, a partir del 2 de agosto de 2025. Los proyectos de código abierto que publican sus pesos y conjuntos de datos pueden satisfacer muchos de estos mandatos de transparencia de la caja, lo que brinda a los modelos públicos una ventaja de cumplimiento. ¡Es como estar un paso por delante en un juego de ajedrez! ♟️
Swiss LLM vs GPT-4: La batalla de los titanes
GPT-4 todavía tiene una ventaja en el rendimiento bruto debido a la escala y los refinamientos propietarios. Pero el modelo suizo cierra la brecha, especialmente para las tareas multilingües y la investigación no comercial, al tiempo que ofrece auditabilidad que los modelos propietarios no pueden. Es como David vs. Goliat, ¡pero con más parámetros! 🧊
¿Sabía? A partir del 2 de agosto de 2025, los modelos fundamentales en la UE deben publicar resúmenes de datos, registros de auditoría y resultados de pruebas adversas, requisitos que la próxima LLM suiza de código abierto ya satisface. ¡Es como ser la mascota del maestro! 🍎
Alibaba Qwen vs Switzerland’s Public LLM: un choque de titanes
Si bien Qwen enfatiza la diversidad de modelos y el rendimiento de la implementación, la LLM pública de Suiza se centra en la transparencia completa y la profundidad multilingüe. ¡Es como comparar un auto deportivo con un sedán de lujo! 🏎️🚗
8 billion and 70 billion. It’s like comparing a Swiss Army knife to a specialized tool! 🔪
En el rendimiento, el codificador QWEN3 de Alibaba ha sido comparado de forma independiente por fuentes, incluidas Reuters, Elets CIO y Wikipedia para rivalizar con GPT-4 en tareas de codificación e intensas en matemáticas. Los datos de rendimiento de Public LLM de Suiza todavía están pendientes de lanzamiento público. ¡Es como esperar el puntaje final en un partido de mordeduras de uñas! 🏆
En la capacidad multilingüe, la LLM pública de Suiza toma la iniciativa con el apoyo de más de 1,500 idiomas, mientras que la cobertura de Qwen incluye 119, aún sustancial pero más selectiva. Finalmente, la huella de la infraestructura refleja filosofías divergentes: la LLM pública de Suiza se ejecuta en la supercomputadora de Alpes de carbono-neutral en carbono de CSCS, una instalación soberana y verde, mientras que los modelos QWEN están capacitados y servidos a través de la nube de Alibaba, priorizar la velocidad y la escala sobre la transparencia de energía. ¡Es como comparar un retiro de montaña con una ciudad bulliciosa! 🏔️🏙️
¿Sabía? QWEN3-coder usa una configuración de MOE con parámetros totales de 235b, pero solo 22 mil millones están activos a la vez, optimizando la velocidad sin un costo de cálculo total. ¡Es como tener un equipo de especialistas, pero solo llamar a los expertos cuando sea necesario! 🧑🤝🧑
Por qué los constructores deberían preocuparse: las ventajas de ir suizo
- Control completo: Poseer la pila de modelos, los pesos, el código y la procedencia de datos. No hay restricciones de bloqueo de proveedores o API. ¡Es como tener las llaves del reino! 🔑
- Personalización: Modelos de adaptación a través del ajuste fino a las tareas específicas del dominio, el análisis de la cadena, la validación de Defi Oracle, la generación de códigos. ¡Es como tener un sastre para tu IA! 👔
- Optimización de costos: Implementación en mercados de GPU o nodos acumulados; La cuantización a 4 bits puede reducir los costos de inferencia en un 60%-80%. ¡Es como obtener un descuento en un artículo de lujo! 🤑
- Cumplimiento por diseño: La documentación transparente se alinea sin problemas con los requisitos de la Ley de AI de la UE, menos obstáculos legales y tiempo de implementación. ¡Es como tener un pase rápido en un parque de diversiones! 🎢
Delffalls para navegar: los baches en el camino de AI
LLMS de código abierto ofrece transparencia pero enfrentan obstáculos como inestabilidad, altas demandas de cómputo e incertidumbre legal. ¡Es como conducir un auto deportivo en un camino lleno de baches! 🏎️🛣️
Los desafíos clave que enfrentan las LLM de código abierto incluyen:
- GAPS de rendimiento y escala: A pesar de las arquitecturas considerables, las preguntas de consenso de la comunidad si los modelos de código abierto pueden igualar las capacidades de razonamiento, fluidez y integración de herramientas de modelos cerrados como GPT-4 o Claude4. ¡Es como comparar un corredor de maratón con un velocista! 🏃️🏃♀️
- Implementación e inestabilidad de los componentes: Los ecosistemas LLM a menudo enfrentan fragmentación de software, con problemas como desajustes de versión, módulos faltantes o bloqueos comunes en tiempo de ejecución. ¡Es como construir una casa con ladrillos no coincidentes! 🧱
- Complejidad de integración: Los usuarios con frecuencia encuentran conflictos de dependencia, configuraciones de entorno complejas o errores de configuración al implementar LLM de código abierto. ¡Es como ensamblar muebles IKEA sin las instrucciones! 🛠️
- Intensidad de recursos: capacitación, alojamiento e inferencia exigen un cómputo y memoria sustanciales (por ejemplo, multi-GPU, 64 GB de RAM), lo que los hace menos accesibles para los equipos más pequeños. ¡Es como necesitar una mansión para organizar una cena! 🏰
- Deficiencias de documentación: La transición de la investigación a la implementación a menudo se ve obstaculizada por documentación incompleta, anticuada o inexacta, lo que complica la adopción. ¡Es como seguir un mapa del tesoro con pistas faltantes! 🏴☠️
- Riesgos de seguridad y fideicomiso: Los ecosistemas abiertos pueden ser susceptibles a las amenazas de la cadena de suministro (por ejemplo, tipo de tipográfico a través de nombres de paquetes alucinados). La gobernanza relajada puede conducir a vulnerabilidades como puertas traseras, permisos inadecuados o fugas de datos. ¡Es como dejar su puerta de entrada desbloqueada! 🚪
- Ambiguidades legales e IP: El uso de datos de cajas web o licencias mixtas puede exponer a los usuarios a conflictos de propiedad intelectual o violar los términos de uso, a diferencia de los modelos cerrados bien auditados. ¡Es como caminar por un campo minado legal! ⚖️
- Problemas de alucinación y confiabilidad: Los modelos abiertos pueden generar resultados plausibles pero incorrectos, especialmente cuando se ajustan sin supervisión rigurosa. Por ejemplo, los desarrolladores informan referencias de paquetes alucinados en el 20% de los fragmentos de código. ¡Es como confiar en un narrador que embellece la verdad! 📖
- Desafíos de latencia y escala: Las implementaciones locales pueden sufrir tiempos de respuesta lentos, tiempos de espera o inestabilidad bajo carga, problemas raramente vistos en los servicios de API administrados. ¡Es como esperar a que un caracol cruce la línea de meta! 🐌
- La fecha de lanzamiento del episodio 6 del mago de agua, la hora, dónde ver
- Por qué el episodio 6 del mago de agua no se lanzó el 7 de agosto
- One Piece Capítulo 1157 Fecha de lanzamiento, hora & Donde leer el manga
- Blue Lock Capítulo 315 Fecha de lanzamiento, hora & Donde leer manga
- USD CLP PRONOSTICO
- EUR CLP PRONOSTICO
- USD CAD PRONOSTICO
- La temporada 2 del miércoles solo le dio a Morticia un aspecto notablemente diferente (fotos)
- La orden ejecutiva de Trump podría terminar con la censura de juegos de Mastercard y Visa
- Cómo ver la temporada 27 de South Park en línea y transmitir nuevos episodios desde cualquier lugar del mundo
2025-08-05 17:29