디지털공론장

전체메뉴
LANGUAGE
KOR ENG GER
로그인 회원가입

A New Order for Shared Prosperity in the Digital Society

디지털 심화대응 실태진단
디지털 심화대응 실태진단
23년 디지털 심화대응 실태진단 도출과정 및 계획
디지털 심화 대국민 인식조사
디지털 권리장전 대국민 인식조사 디지털 심화 시대에 대한 인식 디지털 심화시대에 우려되는 쟁점 디지털 심화 시대 주요 쟁점에 대한 체감도와 대응 중요도 국민이 체감하는 디지털 심화 쟁점 디지털 권리장전 인지도 디지털 권리장전 하면 떠오르는 연상 이미지 디지털 권리장전에 대한 인식 디지털 권리장전 부문별 정부의 현 대응 수준 디지털 권리장전의 실천/실행을 위해 가장 필요한 것 디지털 권리장전이 성공적 확립을 위해 정부가 가장 우선적으로 추진해야 할 조치 디지털 권리장전의 성공적 실천을 위해 국가 간 협력이 중요한 대응 조치
디지털 환경에서의 접근성 보장
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사
디지털 환경 변화에 적합한 노동 권리 보장
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 해외 사례
개인정보 보호 및 프라이버시 보장
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사
디지털 환경 변화에 적합한 교육 시스템 마련
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점
디지털 경제에서의 공정경쟁 확보
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 해외사례
디지털 자산 관련 법·제도 정비
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점
메타버스 경제 관련 규범 정립
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점
데이터 개방 촉진
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점
디지털 환경 변화에 적합한 사회 시스템 정립
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사 연구 보고서
AI 안전·신뢰 확보를 위한 기반 조성
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 해외 사례
분야별 AI활용 기준·원칙 정립
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점
디지털 재난·사이버 위협 예방·대응
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사
건전한 디지털 이용 및 디지털 범죄 예방·대응
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 해외 사례
디지털 환경에서의 아동·청소년 보호 및 권리보장
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사 해외 사례
디지털 혁신 촉진 지원 및 갈등 관리
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사
디지털 저탄소 전환 및 기후위기 대응
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 연구 보고서
글로벌 AI·디지털 협력 강화
논의 필요성 쟁점 현안 내용 부처 대응현황 시사점 관련기사 연구 보고서
AI 안전·신뢰 확보를 위한 기반 조성

디지털 권리장전 제8조(디지털 다양성 존중), 제9조(개인정보의 접근·통제), 제17조(디지털 기술의 윤리적 개발과 사용), 제18조(디지털 위험 대응)

안전하고 신뢰할 수 있는 AI를 개발·활용하기
위해서는 어떠한 노력이 필요할까?
논의 필요성

AI는 인간의 지적 능력을 모방하여 전자적 방식으로 이를 구현하는 기술입니다. AI는 다양한 분야에서 폭넓게 활용되므로 안전성과 신뢰성의 확보가 중요합니다. 그러므로 AI 모델을 구축하는 과정에서 개발자는 편향되고 차별적인 데이터를 배제하고, 안전하고 신뢰할 수 있는 AI의 개발을 위해 노력해야 합니다. 그리고 이용자 역시 나쁜 의도로 AI를 사용하거나 잘못된 방식으로 이를 활용하지 않도록 주의해야 합니다. 무엇보다, AI가 가져오는 혜택을 온전히 누리기 위해서는 위험과 부작용을 최소화할 수 있도록 관련 규범을 정립해야 합니다.

쟁점 현안 내용

[AI 편향 대응]
AI 편향은 어떠한 원인으로 인해 AI 시스템이 특정 방향에 치우친 결과를 도출하는 것을 말합니다. AI 시스템에 나타난 편향들은 개인과 조직, 사회에 대한 부정적 영향을 초래할 수 있습니다. 예를 들어, 대출승인이나 범죄자 예측 등의 영역에서 차별적인 결과를 도출하면서 사회적 논란을 야기할 수도 있습니다. 이러한, AI 편향은 AI를 개발한 인간의 편향, 숨겨진 편향, 데이터 샘플링으로 인한 편향, 특정 데이터 종류가 배제되면서 발생하는 편향(롱테일 편향), 악의적 목적의 편향 등 다양한 형태33)로 나타나고 있습니다. AI 편향을 완전히 통제하는 것은 쉽지 않지만 AI 편향의 제거 가능성을 높이기 위한 노력이 필요합니다.

[AI 안전·신뢰 확보를 위한 규범 정립]
AI의 안전과 신뢰는 지금까지 법적 규제의 통제가 아닌 윤리적 차원에서의 자율규범의 형태로 논의되어 왔습니다. 예를 들어 윤리강령 형식의 AI 윤리원칙 마련, 개발자 등을 위한 가이드라인의 보급, 기업이 자체적으로 수행하는 자율점검표 및 영향평가 제도의 도입, AI 윤리교육 강화 등이 대표적이라고 할 수 있습니다. 그러나, 최근 생성형AI의 확산으로 거짓정보, 프라이버시 침해, 표절 및 저작권 침해 등의 이슈가 제기되면서 주요국이나 국제기구를 중심으로 AI의 윤리성, 안전성, 투명성, 책임성 등을 확보하기 위한 법적규제의 도입이 구체적으로 논의되고 있습니다. EU는 ‘EU 인공지능법(안)(EU AI Act 안)’ 통과에 대한 문안을 합의했고 미국은 ‘AI 행정명령’의 발표를 통해 AI에 대한 본격적인 규제를 가시화하고 있습니다. 28개국이 참여한 영국 AI 안전 정상회의(’23.11)에서는 AI의 잠재적 위험에 공동 대응하고자 ‘블레츨리 선언’이 이뤄지기도 했습니다. 우리나라에서는 AI안전성 확보를 위한 ‘인공지능법(안)’이 발의되어 국회 논의 중입니다.

[AI 제조물 책임 관련 제도 정비]
자율차, 지능형 로봇 등 AI를 활용한 제품들이 시장에 등장하면서, AI 결함으로 인해 발생하는 피해의 배상책임 문제가 나타나고 있습니다. AI 사고는 그 원인을 특정 사람의 행위로 귀속시킬 수 없고, 피해자가 인과관계를 입증하기도 어려워 적절한 손해배상을 받을 수 없다는 문제도 제기되고 있습니다.
EU 집행위원회는 AI 기술을 사용한 제품을 사용한 소비자가 피해를 입으면 제조업체에 대한 증거공개를 요청할 수 있도록 하고 불응 시 인과관계를 추정하여 손해배상을 청구할 수 있도록 규정하는 ‘AI 손해배상 준칙(AI liability directive)’(’22.9)을 발의하였습니다.
국내에서는 소비자와 제조업체 사이 정보격차를 줄일 수 있는 절차가 부족하여 피해 입증이 어렵고, 제조물책임법 상 AI 소프트웨어가 제조물에 해당하는지도 불명확한 상황입니다.

부처 대응현황

과기정통부는 「인공지능(AI) 윤리기준」(’20.12)을 발표하고, 기업의 자율적 실천수단으로서 자율점검표· 개발안내서를 마련(’22)하였습니다. 민간이 자율적으로 제3의 전문기관에서 AI 제품· 서비스의 신뢰성 준수 여부를 평가받을 수 있는 ‘AI 신뢰성 검·인증체계’를 수립하였습니다.

방통위는 디지털 플랫폼의 추천 서비스와 관련하여 ‘인공지능 기반 미디어 추천 서비스 이용자 보호 기본 원칙’을 발표(’21.6)하였습니다.

개인정보위는 「개인정보 보호법」 개정(’23.3)을 통해 자동화된 결정 과정에서 정보주체의 권리를 보호하기 위해 거부·설명 등 요구권을 신설(’24.3.15.시행) 하였으며, ‘인공지능 시대 안전한 개인정보 활용 정책 방향’(’23.8.)을 발표하여 AI 단계별 개인정보 처리기준과 보호조치를 제시하였습니다.

시사점

생성형 AI가 빠르게 발전하면서 글로벌 차원에서 AI의 안전·신뢰성 확보를 위한 논의가 지속되고 있습니다. 글로벌 논의에 주도적으로 참여하면서도 국내 AI 산업생태계를 종합적으로 고려하여, 기술 혁신을 저해하지 않도록 실효성 있는 안전·신뢰성 확보 방안을 마련해 나갈 필요가 있습니다.

해외 사례
AI 편향으로 인한 논란 발생 사례

- (미국) 아마존(Amazon)은 자체 개발한 인공지능 채용시스템이 성별, 피부색, 장애여부 등을 이유로 지원자를 차별하는 결과가 발생하자 해당 시스템의 사용을 중지(’18.10)

- (네덜란드) 정부가 사회보장, 조세, 노동 영역에서 발생하는 부정 방지를 위해 AI 위험탐지시스템 (SyRi)을 개발·활용하였으나, 헤이그 지방법원은 해당 시스템에 대한 근거 규정이 사생활 존중권에 관한 유럽인권협약을 위반한다고 판결(’20.2)

- (영국) 시험감독청은 코로나19로 대입시험이 취소되자 AI 알고리즘을 활용하여 학생의 예상 성적을 산출하였으나, 부유층 학생에게는 예상보다 높은 점수가, 빈곤층 학생에게는 예상보다 낮은 점수가 부여되는 문제 발생(’20.8)

AI 윤리·안전 확보 관련 규범 정립 동향

- (EU) AI 활용에 따른 위험(risk)을 금지,고위험, 최소 위험으로 분류하여 차등 규제를 적용하는 ‘EU 인공지능법(안)(EU AI Act 안)’을 통과 시키기로 집행위원회와 의회가 27개 회원국과 최종합의(’23.12)

- (미국) 바이든 대통령은 AI의 안전, 보안, 신뢰를 확보하기 위해 안전 테스트 결과의 공개, 레드팀 테스트 진행, AI 생성물에 대한 콘텐츠 인증 및 워터마크 삽입 등을 강제하는 ‘AI 관련 행정명령’ 발표(’23.10)

- (영국 AI 안전성 정상회의) AI에 의한 잠재적 피해를 예방하고자 적절한 평가지표의 개발, 안전 테스트를 위한 도구의 개발, 고성능 AI 위험식별 및 과학적 이해의 구축 등에 관하여 합의한 ‘블레츨리 선언’ 발표(’23.11)

- (G7) AI 개발자가 가짜정보의 확산과 프라이버시 침해 위험을 완화하는 방안을 검증받고 이용자가 AI의 취약성 탐지에 협력하도록 하고, AI 생성물에 대한 워터마크 삽입 등을 강제하는 ‘히로시마 AI 프로세스 행동강령’ 합의안 발표(’23.12)

현재 브라우저에서는 지원하지 않는 사이트입니다. 아래의 다른 브라우저를 다운받아 사용해주세요.