로그인하여 저장하고 업데이트를 받으세요.
큰 질문들: 인공지능, 자동화, 그리고 거버넌스
Who should control powerful AI systems, and what must be regulated to protect society?
출처 기사
RAND Corporation (United States) | Mar 25, 2026
RAND Corporation (United States) | Mar 26, 2026
The Lancet (United Kingdom) | Apr 11, 2026
이 진술문들을 읽는 방법
이 배경은 기계 번역일 수 있습니다. 품질은 다를 수 있습니다.
현재 견해에 먼저 투표하세요. 위의 관련 기사는 선택사항이며 시의성 있는 맥락입니다. 이 상자의 참고자료는 추가 선택사항 배경 자료입니다. 테스트가 아닙니다. 참여 후에 더 많은 관점과 분석을 제공합니다 (합의 지도 및 여정 요약).
참고자료는 기관 다양성을 목표로 합니다 (예: 공식 데이터, 입법부, 국제기구, 독립 연구). 포함은 승인을 의미하지 않습니다. 외부 사이트는 자체 편집 기준을 설정합니다.
당신의 투표는 오늘 당신이 생각하는 바를 기록합니다 — 먼저 아래의 선택적 참고자료를 읽을 것으로 예상되지 않습니다. 진술문을 어떻게 구성했는지 설명합니다. 투표 후 합의 분석(잠금 해제 시)과 당신의 여정 요약을 팔로우업 읽기 자료로 활용하세요.
테마 완료!
이 주제의 모든 진술에 투표했습니다 (7).
AI 번역 · 원문 보기
AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.
AI 번역 · 원문 보기
Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.
AI 번역 · 원문 보기
Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.
AI 번역 · 원문 보기
Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.
AI 번역 · 원문 보기
AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.
AI 번역 · 원문 보기
Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.
AI 번역 · 원문 보기
Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.