Melden Sie sich an, um zu speichern und Updates zu erhalten.
Große Fragen: Künstliche Intelligenz, Automatisierung und Governance
Who should control powerful AI systems, and what must be regulated to protect society?
Quellartikel
RAND Corporation (United States) | Mar 25, 2026
RAND Corporation (United States) | Mar 26, 2026
The Lancet (United Kingdom) | Apr 11, 2026
So lesen Sie diese Aussagen
Dieser Inhalt kann maschinell übersetzt sein. Die Qualität kann variieren.Dieser Hintergrund kann maschinell übersetzt sein. Die Qualität kann variieren.Dieser Hintergrund kann maschinell übersetzt sein. Die Qualität kann variieren.
Stimme zuerst auf deine aktuellen Ansichten ab. Die verlinkten Artikel oben sind optionaler, aktueller Kontext; die Verweise in diesem Feld sind weiteres optionales Hintergrundmaterial – kein Test. Wir zeigen mehr Perspektiven und Analysen nach deiner Teilnahme (Konsenskarte und Reise-Zusammenfassung).
Verweise streben institutionelle Vielfalt an (zum Beispiel offizielle Daten, Parlamente, internationale Organisationen und unabhängige Forschung). Aufnahme ist keine Befürwortung; externe Seiten setzen ihre eigenen redaktionellen Standards.
Ihre Abstimmung dokumentiert, was Sie heute denken — Sie müssen nicht zuerst die optionalen Referenzen unten lesen. Sie erläutern, wie wir Aussagen formulieren. Nach der Abstimmung nutzen Sie Consensus-Analyse (wenn verfügbar) und Ihre Reise-Zusammenfassung zur Vertiefung.
Was dann geschah
Dieser Bereich ist eine kurze nachrichtenähnliche Zeitleiste von Organisatoren (Entscheidungen, Anhörungen, was sich in der realen Welt geändert hat). Sie ist separat von der Abstimmung über die oben aufgeführte feste Aussagenliste.
Möchten Sie eine neue Aussage zu diesem Thema vorschlagen? Verwenden Aussage vorschlagen. Ihr Text wird im überprüft Moderationswarteschlange bevor es anderen zur Abstimmung vorgelegt werden kann.
Thema abgeschlossen!
Sie haben zu jeder Aussage in diesem Thema abgestimmt (7).
KI-übersetzt · Original anzeigen
AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.
KI-übersetzt · Original anzeigen
Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.
KI-übersetzt · Original anzeigen
Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.
KI-übersetzt · Original anzeigen
Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.
KI-übersetzt · Original anzeigen
AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.
KI-übersetzt · Original anzeigen
Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.
KI-übersetzt · Original anzeigen
Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.