Inicia sesión para guardar y recibir actualizaciones.
Grandes preguntas: Inteligencia artificial, automatización y gobernanza
Who should control powerful AI systems, and what must be regulated to protect society?
Artículos de Fuentes
RAND Corporation (United States) | Mar 25, 2026
RAND Corporation (United States) | Mar 26, 2026
The Lancet (United Kingdom) | Apr 11, 2026
Cómo leer estas afirmaciones
Este contenido puede estar traducido automáticamente. La calidad puede variar.Este contexto puede estar traducido por máquina. La calidad puede variar.Este contexto puede estar traducido automáticamente. La calidad puede variar.
Vota primero sobre tus puntos de vista actuales. Los artículos vinculados arriba son contexto oportuno opcional; las referencias en este cuadro son más contexto opcional de fondo, no una prueba. Mostramos más perspectivas y análisis después de que participes (mapa de consenso y resumen del viaje).
Las referencias buscan variedad institucional (por ejemplo, datos oficiales, legislaturas, organismos internacionales e investigación independiente). La inclusión no es un respaldo; los sitios externos establecen sus propios estándares editoriales.
Tu voto registra lo que piensas hoy — no se espera que leas primero las referencias opcionales que aparecen a continuación. Explican cómo formulamos las afirmaciones. Después de votar, usa el análisis de Consenso (cuando se desbloquee) y tu resumen del recorrido para lecturas complementarias.
Qué Pasó Después
Esta sección es una breve cronología de estilo noticioso de los organizadores (decisiones, audiencias, qué cambió en el mundo real). Es independiente de la votación en la lista fija de afirmaciones anterior.
¿Quieres proponer una nueva declaración para este tema? Usar Sugerir una afirmación. Su texto es revisado en el cola de moderación antes de que pueda aparecer para que otros voten.
¡Tema completado!
Has votado sobre todas las afirmaciones de este tema (7).
Traducido por IA · Ver original
AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.
Traducido por IA · Ver original
Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.
Traducido por IA · Ver original
Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.
Traducido por IA · Ver original
Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.
Traducido por IA · Ver original
AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.
Traducido por IA · Ver original
Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.
Traducido por IA · Ver original
Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.