avance rápido a AI Se han levantado algunas cejas, como suelen hacer las grandes empresas de tecnología. Google, Grok, meta Y AbiertoAI Compite para crear modelos inteligentes a una velocidad vertiginosa. Y a pesar de los beneficios potenciales de lo que la IA puede hacer, hay muchos, si no más, más ansiedad Sobre cómo puede impactar negativamente a la humanidad.
Tantos que hay 700 figuras públicas destacadas firmó una declaración Proclamar la prohibición de la superinteligencia de IA hasta que pueda desarrollarse de forma segura y hasta que exista una fuerte aceptación pública.
El comunicado se publicó el jueves y afirma que se está desarrollando una IA que puede superar a los humanos en casi todas las tareas cognitivas, especialmente con poca supervisión.
Miedos a todo, desde la pérdida de libertad hasta riesgos para la seguridad nacional. extinción humana Según el grupo, la mente está por encima de todo.
No se pierda nuestro contenido tecnológico imparcial y reseñas basadas en laboratorio. Añadir CNET Como fuente preferida de Google.
Varias firmas provinieron de los “padrinos de la IA”, Yoshua Bengio y Geoffrey Hinton, ex responsables políticos y celebridades como Kate Bush y Joseph Gordon-Levitt.
El propio Elon Musk ya advirtió anteriormente sobre los peligros de la IA, llegando incluso a decir que los humanos están “convocando a un monstruo” con la IA. Musk incluso firmó una carta similar con otros líderes tecnológicos a principios de 2023, pidiendo una ruptura con la IA.
El Future of Life Institute también publicó un voto nacional Esta semana, sólo el 5% de los estadounidenses encuestados apoyan el actual, rápido e incontrolado avance hacia la superinteligencia. Más de la mitad de los encuestados (64%) dice que la IA superinteligente no debería desarrollarse hasta que se demuestre que es segura y controlable, y el 73% quiere controles más estrictos sobre la IA avanzada.
Las partes interesadas también pueden firmar la declaración, con un recuento actual de firmas de 27.700 al momento de escribir este artículo.











