Elon Musk se une a Vitalik Buterin en el desarrollo crucial de la IA

🚨 Atención, futuros millonarios criptográficos! 🚨 ¿Cansado de recibir tus consejos financieros de galletas de la fortuna? Únete a nuestro canal de Telegram para las últimas noticias en criptomonedas. ¿Dónde más puedes encontrar esquemas para hacerte rico rápidamente, caídas de mercado y memes infinitos en un solo lugar? No te lo pierdas – ¡tu Lambo te espera! 🚀📉

☞¡Únete ahora o arrepiéntete después!

Como investigador experimentado que ha sido testigo del rápido avance de la IA durante más de dos décadas, me encuentro en una encrucijada entre el entusiasmo y la preocupación. Los beneficios potenciales de la IA son innegables, pero no se pueden ignorar los riesgos que plantea.

El progreso de la inteligencia artificial (IA) ha sido notable, con ChatGPT de OpenAI y grandes empresas como Apple uniéndose a la tendencia. Parece que estamos experimentando un auge de la IA. Sin embargo, es crucial recordar que «un gran poder conlleva una gran responsabilidad», mensaje enfatizado en numerosas películas de Spider-Man.

En todo el mundo, se prevé que el uso cada vez mayor de la inteligencia artificial conllevará riesgos sustanciales para las personas en todas partes. Como resultado, figuras influyentes como Elon Musk y Vitalik Buterin han estado hablando activamente sobre la necesidad de regulaciones de IA para mitigar estos peligros globales. Musk, que dirige una empresa de inteligencia artificial llamada X.AI Corp., apoya el desarrollo de esta tecnología y al mismo tiempo aboga por la supervisión de la industria.

Necesidad de regulaciones sobre IA

California ha propuesto un proyecto de ley, SB 1047, destinado a abordar los peligros y riesgos potenciales asociados con la inteligencia artificial. Si se promulga, esta legislación podría imponer una mayor responsabilidad a los desarrolladores de modelos de IA que invierten más de 100 millones de dólares, exigiéndoles que cumplan con ciertos protocolos de seguridad, incluida la prueba de seguridad de sus modelos antes de su implementación.

Es una decisión desafiante y puede generar controversia, pero teniendo en cuenta todos los factores, creo que es apropiado que California promulgue la legislación de seguridad de IA SB 1047. Durante más de dos décadas, he defendido el control de la IA, de forma similar a cómo regulamos cualquier producto o tecnología que pueda suponer un riesgo.

— Elon Musk (@elonmusk) 26 de agosto de 2024

En respuesta a este reciente evento, el director ejecutivo de Tesla, Elon Musk, recurrió a Twitter e instó a California a aprobar el proyecto de ley SB 1047. A pesar de reconocer que su postura podría irritar a algunos, Musk ha expresado abiertamente la necesidad de regulaciones sobre la IA durante más de dos décadas. Como figura prominente en el mundo de la tecnología, cree que la industria debería enfrentar una regulación similar a la de otros sectores relacionados con la tecnología, para mitigar los riesgos potenciales.

Las preocupaciones de Vitalik Buterin

En respuesta al tweet de Elon Musk, el fundador de Ethereum, Vitalik Buterin, habló sobre la importancia de regular el sector de la IA. Sin embargo, expresó reservas sobre la eficacia de estas regulaciones propuestas. Buterin se preguntó si el proyecto de ley SB 1047 se emplearía para apuntar a modelos de código abierto y previamente entrenados destinados a un mayor desarrollo.

Parece que el indicio más fuerte que apunta hacia el propósito del proyecto de ley es su requisito anterior que entra en conflicto con las pesas abiertas, pero este requisito ahora ha sido eliminado. Además, ciertos expertos en seguridad de la IA han mostrado su respaldo a…

— vitalik.eth (@VitalikButerin) 27 de agosto de 2024

El creador de Ethereum apoya la disposición sobre «daños críticos» del proyecto de ley. Él interpreta la SB 1047 como un intento de establecer protocolos de pruebas de seguridad. En esencia, esto significa que si los desarrolladores o las empresas descubren riesgos potenciales a escala global o comportamientos dañinos dentro de sus modelos, se les prohibirá implementarlos.

2024-08-27 15:27