El fundador de Silk Road, Ross Ulbricht, elogia la IA en el último tweet: Detalles

🚨 Atención, futuros millonarios criptográficos! 🚨 ¿Cansado de recibir tus consejos financieros de galletas de la fortuna? Únete a nuestro canal de Telegram para las últimas noticias en criptomonedas. ¿Dónde más puedes encontrar esquemas para hacerte rico rápidamente, caídas de mercado y memes infinitos en un solo lugar? No te lo pierdas – ¡tu Lambo te espera! 🚀📉

¡Únete ahora o arrepiéntete después!

Como inversor experimentado en criptomonedas y entusiasta de la tecnología, me siento cautivado y preocupado por los recientes desarrollos en la tecnología de inteligencia artificial, como lo demuestran el tweet de Ross Ulbricht desde prisión y el llamado de Elon Musk a regular la plataforma de redes sociales X.

En prisión, el renombrado creador del mercado Silk Road de la web profunda, Ross Ulbricht, publicó recientemente un tweet sobre la tecnología avanzada de inteligencia artificial.

Ulbricht cumple actualmente más de once años tras las rejas, ya que fue detenido en 2013 cuando las autoridades cerraron el mercado en línea conocido como Silk Road.

Ulbricht elogia la tecnología de inteligencia artificial

El creador de la Ruta de la Seda compartió su entusiasmo por un artículo reciente que detalla el software de inteligencia artificial que genera imágenes basadas en pensamientos. Observó con aprobación cómo la tecnología ha progresado significativamente desde su encarcelamiento.

Vaya, acabo de encontrar un artículo interesante que detalla la capacidad de la IA para generar imágenes a partir de las imágenes mentales de las personas. Increíble avance en tecnología, ¿no?

— Ross Ulbricht (@RealRossU) 26 de agosto de 2024

Como investigador, parece plausible que Ulbricht haya aludido a un artículo que encontré el año pasado, titulado «Los investigadores utilizan la IA para generar imágenes basadas en la actividad cerebral de las personas». Este artículo analiza un desarrollo intrigante en el campo donde los investigadores están realizando experimentos que involucran IA para recrear imágenes de alta resolución y alta precisión directamente a partir de la actividad cerebral, aprovechando el modelo de generación de imágenes de Difusión Estable ampliamente utilizado.

Según su declaración, no era necesario que enseñaran o ajustaran los sistemas de inteligencia artificial antes de poder generar esas imágenes por sí mismos.

Elon Musk pide un proyecto de ley sobre seguridad de la IA en California

Hoy, Elon Musk recurrió a la plataforma de redes sociales X para realizar una importante llamada a la IA.

Elon Musk expresó su opinión de que el estado de California debe aprobar el proyecto de ley SB 1047, un proyecto de ley sobre seguridad de la IA. Como defensor desde hace mucho tiempo de la regulación de la IA, el fundador de xAI enfatizó que dicho desarrollo debería estar gobernado por las autoridades, de manera similar a cómo gestionan cualquier tecnología o producto que pueda representar un riesgo para el público.

Como alguien que ha dedicado más de dos décadas a defender la regulación de la IA, al igual que lo hacemos con otros productos y tecnologías potencialmente riesgosos, creo firmemente que California debería avanzar en la aprobación del proyecto de ley de seguridad de la IA SB 1047. Si bien entiendo que esta decisión puede no complacer a todos, dada la complejidad y el impacto potencial de la tecnología de inteligencia artificial, es un paso necesario para garantizar la seguridad y la responsabilidad en nuestro panorama digital.

— Elon Musk (@elonmusk) 26 de agosto de 2024

Este proyecto de ley redactado por el senador estatal Scott Wiener sería el primer proyecto de ley que, de aprobarse, requeriría que las empresas creadoras de IA prueben la seguridad de sus modelos de IA a gran escala antes de lanzarlos. En respuesta, las grandes empresas de inteligencia artificial amenazaron con abandonar el estado de California si se aprobaba el proyecto de ley.

Las empresas responsables del desarrollo de modelos de IA con un valor superior a los 100 millones de dólares deberán mitigar cualquier riesgo sustancial detectado durante las evaluaciones de seguridad mediante la implementación de precauciones adecuadas.

Los desarrolladores de IA también necesitarán diseñar un «plan de seguridad» que describa estrategias para gestionar riesgos potenciales. Deberán mantener este modelo archivado mientras su modelo permanezca activo y por un período adicional de cinco años.

2024-08-27 14:38