Entre para guardar e receber atualizações.
Grande questões: Inteligência artificial, automação e governação
Who should control powerful AI systems, and what must be regulated to protect society?
Artigos de Fontes
RAND Corporation (United States) | Mar 25, 2026
RAND Corporation (United States) | Mar 26, 2026
The Lancet (United Kingdom) | Apr 11, 2026
Como ler estas declarações
Este contexto pode ser traduzido automaticamente. A qualidade pode variar.
Vote em suas visões atuais primeiro. Os artigos vinculados acima são contexto opcional e oportuno; as referências nesta caixa são informações de fundo adicionais opcionais — não é um teste. Exibimos mais perspectivas e análises após sua participação (mapa de consenso e resumo da jornada).
As referências visam variedade institucional (por exemplo, dados oficiais, legislaturas, organismos internacionais e pesquisa independente). A inclusão não é um endosso; sites externos estabelecem seus próprios padrões editoriais.
O seu voto regista o que pensa hoje — não se espera que leia as referências opcionais abaixo primeiro. Explicam como enquadramos as declarações. Depois de votar, utilize a análise de consenso (quando desbloqueada) e o seu resumo da jornada para leitura complementar.
O Que Aconteceu Depois
Esta seção é uma linha do tempo em estilo de notícia dos organizadores (decisões, audiências, o que mudou no mundo real). É separada da votação na lista de proposições fixas acima.
Deseja propor uma nova declaração para este tema? Usar Sugerir uma afirmação. Seu texto é revisado no fila de moderação antes que possa aparecer para outros votarem.
Tema concluído!
Votou em todas as afirmações deste tema (7).
Traduzido por IA · Ver original
AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.
Traduzido por IA · Ver original
Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.
Traduzido por IA · Ver original
Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.
Traduzido por IA · Ver original
Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.
Traduzido por IA · Ver original
AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.
Traduzido por IA · Ver original
Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.
Traduzido por IA · Ver original
Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.