주요 콘텐츠로 건너뛰기

Big Questions

테마 2 / 8

AI & technology

여정 개요

로그인 진행률을 추적하려면

큰 질문들: 인공지능, 자동화, 그리고 거버넌스

Technology
글로벌
April 17, 2026에 시작됨

이 진술문들을 읽는 방법

이 배경은 기계 번역일 수 있습니다. 품질은 다를 수 있습니다.

현재 견해에 먼저 투표하세요. 위의 관련 기사는 선택사항이며 시의성 있는 맥락입니다. 이 상자의 참고자료는 추가 선택사항 배경 자료입니다. 테스트가 아닙니다. 참여 후에 더 많은 관점과 분석을 제공합니다 (합의 지도 및 여정 요약).

참고자료는 기관 다양성을 목표로 합니다 (예: 공식 데이터, 입법부, 국제기구, 독립 연구). 포함은 승인을 의미하지 않습니다. 외부 사이트는 자체 편집 기준을 설정합니다.

당신의 투표는 오늘 당신이 생각하는 바를 기록합니다 — 먼저 아래의 선택적 참고자료를 읽을 것으로 예상되지 않습니다. 진술문을 어떻게 구성했는지 설명합니다. 투표 후 합의 분석(잠금 해제 시)과 당신의 여정 요약을 팔로우업 읽기 자료로 활용하세요.

그 다음은?

이 섹션은 주최자의 짧은 뉴스 형식의 타임라인입니다 (결정사항, 청문회, 현실 세계의 변화). 위의 고정된 문장 목록에 대한 투표와는 별개입니다.

이 주제에 대한 새로운 설명을 제안하고 싶으신가요? 사용 진술 제안. 귀하의 텍스트는 다음에서 검토됩니다. 중재 대기열 다른 사람들이 투표할 수 있도록 표시되기 전에.

Statement of 7

위 진술에 투표: 동의, 반대, 잘 모르겠음
Consensus map. It unlocks after 5 votes in this theme (you’re at 0). The map is for this topic only — not a single left–right score across the whole journey.
Need to find a specific claim? Search all statements.
CLAIM 게시자: will Apr 18, 2026
AI 개발자는 배포된 시스템으로 인한 예측 가능한 피해에 대해 제조업체가 물리적 제품에 대해 하는 것처럼 엄격한 법적 책임을 져야 한다.
AI 번역 · 원문 보기

AI developers should bear strict legal liability for foreseeable harms caused by their deployed systems, as manufacturers do for physical products.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 게시자: will Apr 18, 2026
현실적인 합성 미디어를 생성할 수 있는 생성형 AI 시스템은 그들의 결과물에 탐지 가능한 워터마크를 삽입하도록 의무화되어야 한다.
AI 번역 · 원문 보기

Generative AI systems capable of producing realistic synthetic media should be required to embed detectable watermarks in their outputs.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 게시자: will Apr 18, 2026
글로벌 AI 안전 거버넌스는 자발적인 국가 공약이 아닌 구속력 있는 다자간 조약 프로세스를 요구한다.
AI 번역 · 원문 보기

Global AI safety governance requires a binding multilateral treaty process, not voluntary national commitments.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 게시자: will Apr 18, 2026
대규모 피해를 야기할 수 있는 최첨단 AI 시스템은 공개 배포 전에 독립적인 안전 평가를 통과하도록 의무화되어야 한다.
AI 번역 · 원문 보기

Frontier AI systems capable of causing large-scale harm should be required to pass independent safety evaluations before public deployment.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 게시자: will Apr 18, 2026
AI 주도 자동화는 이 10년간 창출하는 일자리보다 훨씬 더 많은 일자리를 대체할 것이며, 사회보험 시스템의 근본적인 재설계가 필요하다.
AI 번역 · 원문 보기

AI-driven automation will displace significantly more jobs than it creates this decade, requiring fundamental redesign of social insurance systems.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 게시자: will Apr 18, 2026
가장 강력한 AI 모델 가중치의 오픈소스 공개는 공중 접근의 이점보다 보안 위험을 초래한다.
AI 번역 · 원문 보기

Open-source release of the most powerful AI model weights creates security risks that outweigh the benefits of public access.

Vote options for this statement: agree, disagree, or unsure
Vote to see results
CLAIM 게시자: will Apr 18, 2026
명시적인 선택 동의 없이 개인 데이터로 AI 시스템을 훈련하는 것은 데이터 보호법에 따라 금지되어야 한다.
AI 번역 · 원문 보기

Training AI systems on personal data without explicit opt-in consent should be prohibited under data protection law.

Vote options for this statement: agree, disagree, or unsure
Vote to see results