サインインして保存して更新を取得してください。
大きな課題:人工知能、自動化、ガバナンス
Who should control powerful AI systems, and what must be regulated to protect society?
ソース記事
RAND Corporation (United States) | Mar 25, 2026
RAND Corporation (United States) | Mar 26, 2026
The Lancet (United Kingdom) | Apr 11, 2026
これらの声明の読み方
この背景は機械翻訳の場合があります。品質は異なる場合があります。
まず現在の見方に投票してください。上のリンク記事はオプションの最新コンテキストです。このボックスのリファレンスはさらにオプションの背景情報であり、テストではありません。参加後にさらに多くの視点と分析を表示します(コンセンサスマップと journey 要約)。
リファレンスは機関の多様性を目指しています(例えば公式データ、立法機関、国際機関、独立した研究)。掲載は支持を意味しません。外部サイトは独自の編集基準を設定しています。
あなたの投票は今日のあなたの考えを記録します — 下記の任意の参考資料を先に読む必要はありません。それらは声明をどのように枠付けるかを説明しています。投票後、合意分析(ロック解除時)とジャーニー再検討を使用してフォローアップを行ってください。
テーマ完了!
このテーマのすべての表明に投票済みです(7)。
AI翻訳 · 原文を表示
AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.
AI翻訳 · 原文を表示
Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.
AI翻訳 · 原文を表示
Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.
AI翻訳 · 原文を表示
Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.
AI翻訳 · 原文を表示
AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.
AI翻訳 · 原文を表示
Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.
AI翻訳 · 原文を表示
Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.