メインコンテンツに移動

Big Questions

テーマ 2 / 8

AI & technology

ジャーニー概要

サインイン 進捗を追跡するには

大きな課題:人工知能、自動化、ガバナンス

Technology
グローバル
April 17, 2026に開始

これらの声明の読み方

この背景は機械翻訳の場合があります。品質は異なる場合があります。

まず現在の見方に投票してください。上のリンク記事はオプションの最新コンテキストです。このボックスのリファレンスはさらにオプションの背景情報であり、テストではありません。参加後にさらに多くの視点と分析を表示します(コンセンサスマップと journey 要約)。

リファレンスは機関の多様性を目指しています(例えば公式データ、立法機関、国際機関、独立した研究)。掲載は支持を意味しません。外部サイトは独自の編集基準を設定しています。

あなたの投票は今日のあなたの考えを記録します — 下記の任意の参考資料を先に読む必要はありません。それらは声明をどのように枠付けるかを説明しています。投票後、合意分析(ロック解除時)とジャーニー再検討を使用してフォローアップを行ってください。

その後どうなったか

このセクションは主催者からの短いニュース形式のタイムラインです(決定、公聴会、現実世界での変化)。上記の固定ステートメントリストへの投票とは別です。

このテーマに対して新しいステートメントを提案したいですか?使用 主張を提案. あなたのテキストは、 モデレーションキュー 他の人が投票できるようになる前に。

Statement of 7

上記の主張に投票:賛成、反対、わからない
Consensus map. It unlocks after 5 votes in this theme (you’re at 0). The map is for this topic only — not a single left–right score across the whole journey.
Need to find a specific claim? Search all statements.
CLAIM 投稿者: will Apr 18, 2026
AI開発企業は、製造業者が物理製品に対して責任を負うのと同様に、配備されたシステムによって引き起こされた予見可能な害に対して厳格な法的責任を負うべきである。
AI翻訳 · 原文を表示

AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 投稿者: will Apr 18, 2026
リアルな合成メディアを生成できる生成型AI システムは、その出力に検出可能なウォーターマークを埋め込むことを義務付けるべきである。
AI翻訳 · 原文を表示

Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 投稿者: will Apr 18, 2026
グローバルなAI安全性ガバナンスには、自発的な国家的コミットメントではなく、拘束力のある多国間条約プロセスが必要である。
AI翻訳 · 原文を表示

Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 投稿者: will Apr 18, 2026
大規模な害を引き起こす可能性のあるフロンティアAIシステムは、公開配備前に独立した安全性評価に合格することを義務付けられるべきである。
AI翻訳 · 原文を表示

Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 投稿者: will Apr 18, 2026
AI駆動型オートメーションは今後10年間に創出されるよりも大幅に多くの雇用を奪うため、社会保険システムの根本的な再設計が必要である。
AI翻訳 · 原文を表示

AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 投稿者: will Apr 18, 2026
最も強力なAIモデルの重みをオープンソースで公開することは、公開アクセスの利点を上回るセキュリティリスクを生み出す。
AI翻訳 · 原文を表示

Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 投稿者: will Apr 18, 2026
明示的なオプトイン同意なしに個人データを使用してAIシステムを訓練することは、データ保護法で禁止されるべきである。
AI翻訳 · 原文を表示

Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.

Vote options for this statement: agree, disagree, or unsure
Vote to see results