개요
인공지능과 법, 철학, 윤리 워크숍에 다녀왔다.
2명의 교수님들의 강의식 발표와 토론으로 이루어졌는데, 개인적 스케쥴 상 1번 째 김종욱 교수님의 강의만 듣고 나왔다.
인공지능에 대한 기본적인 이해가 필요한 부분이긴 하지만 발표시간 중 절반이 넘는 시간동안 기초 지식에 대한 설명이어서 조금 아쉬웠다.
법, 철학, 윤리에 대한 부분을 기대하고 갔었기 때문에 그 부분이 좀 길었으면 좋았겠다는 생각이 들었다.
하지만, 인공지능의 윤리에 대한 대략적인 개요와 방향들에 대해 알 수 있었고, Aritificial Moral Agent 아키텍처인 Soar에 대해 알게 된 것은 큰 수확이었다.
2명의 교수님들의 강의식 발표와 토론으로 이루어졌는데, 개인적 스케쥴 상 1번 째 김종욱 교수님의 강의만 듣고 나왔다.
인공지능에 대한 기본적인 이해가 필요한 부분이긴 하지만 발표시간 중 절반이 넘는 시간동안 기초 지식에 대한 설명이어서 조금 아쉬웠다.
법, 철학, 윤리에 대한 부분을 기대하고 갔었기 때문에 그 부분이 좀 길었으면 좋았겠다는 생각이 들었다.
하지만, 인공지능의 윤리에 대한 대략적인 개요와 방향들에 대해 알 수 있었고, Aritificial Moral Agent 아키텍처인 Soar에 대해 알게 된 것은 큰 수확이었다.
1. 인공지능의 윤리적 이슈 _ 김종욱 교수(동아대)
인공지능 개요
4차 산업혁명의 핵심은 인공지능
- Digital Transformation
- 인공지능, 로봇, 사물 인터넷, 3D 프린팅, 빅데이터, 가상현실, 블록체인 등의 기술이 주도
- 가상세계와 현실세계의 결삽(Cyber-Physical System)이 중심
- 생산 설비가 자동으로 제품 생산(Smart Factory)
- On-demand 생산
- 시장에서 필요로 한느 제품을 필요한 순간에 생산
- 정교한 제조
- 자원의 낭비 최소화
- 재고 비용 최소화
- 초생산(Hyper-Production)의 시대
인공지능이란?
지각(Perception), 학습(Learning), 추론(Inference), 이해(Understanding), 기억(Memory) 등 인간 수준의 지적 능력을 갖는 소프트웨어
지각(Perception), 학습(Learning), 추론(Inference), 이해(Understanding), 기억(Memory) 등 인간 수준의 지적 능력을 갖는 소프트웨어
- 기본 지능
- 계획과 문제풀이
- 탐색
- 지식표현
- 불확실성
- 지각
- 자연어 처리/이해
- 시각
- 청각
- 추론/분류
- Fuzzy 이론
- Expert 시스템
- 신경망, 기계학습
- 활용
- Data Mining
- 에이전트
- 로봇
인공지능의 분류
딥러닝은 어디에서 왔을까?
- 인공신경망(Artificial Neural Network)
- 인간의 뇌를 기반으로 한 추론 모델
- 인간의 뇌: 100억개의 신경세포(neuron)와 각 뉴런을 연결하는 6조개의 시냅스(synapse)로 구성
- 뉴런: 세포체, 수상돌기, 축색돌기로 구성
딥러닝이란?
- 신경망(Neural Network)을 쌓아서 다층(3층 이상) 구조
- end-to-end learning: 내부의 표현(representation)이나 특성(feature)를 자동으로 학습
딥러닝의 적용
- 컴퓨터 비전과 패턴 인식
- 흑백 사진과 영상에 색 복원하기
- 사진, 동영상 설명하기
- 실시간 동작 추정 및 행동분석
- 번역, 텍스트 이해
- 새로운 이미지 만들기
- 음성, 영상 합성
- 컴퓨터 게임, 자율주행차
- NPC 에이전트
- 도로 상황 인식
- 예술
- 음악 작곡
- 셰익스피어 스타일의 글쓰기
- Deep Dreaming
- 유명화가의 화풍 따라서 그리기
- 초상화 화가 Obvious
- 금융
- 주식 트레이딩: 로보 어드바이저
딥러닝의 성공 요인
- 빅데이터
- GPU 기반 병렬연산 하드웨어 발전
- 알고리즘의 개선: CNN, ReLU, pooling, dropout, pruning, ADAM 최적화
- 오픈소스: TensorFlow, Caffe, MXNet, Chainer, CNTK, PyTorch ...
딥러닝의 구분
딥러닝의 Hero, CNN
인공지능을 믿고 쓸 수 있을까?
딥러닝의 약점
- 구조적 문제
- 복잡한 구조로 인해 개발자조차 성능이 왜 잘(안) 나오는지 설명할 수 없음
- 비정상 값 출력 혹은 오류 발생 시 원인 파악의 어려움
- 딥러닝을 사회 인프라 적용 시 긴급 복구, 정비 불가능
- 데이터 관련 문제
- 방대한 양의 데이터 필요
- 가능한 모든 경우에 대한 데이터 확보
- 데이터의 편향 가능성 고려
- 학습 상황과 다른 상황에서 적용 시 문제
- 변화의 대처에 취약
- 새로운 데이터나 기능 추가
- 시스템의 변화 또는 적용 분야의 변화
해결책: Explainability, Transparency
- 딥러닝은 복잡한 블랙박스
- 딥러닝의 오용, 남용, 실패에 대비
- 설명가능성과 투명성 없이는 딥러닝을 신뢰(trust)할 수 없고, 실제 문제에 적용하는데 한계가 있음(ex. 자율주행자동차)
- Human-in-the-loop machine learning, eXplainable AI(XAI), Transparent Machine Learning, ...
- 딥러닝의 설명성, 투명성을 위한 방안
- 딥러닝 프로세스의 시각화(visualization)
- 딥러닝 알고리즘 설명: Feature/instance contribution to DL model, Mathematical models for DL model explanation -> 수학적 기능의 중요성이 매우 커질 것이다.
- 사용자의 Cognitive Response Communication: DL 결과에 대한 사용자의 trust, 그 결과를 기반으로 판단 시 confidence(확신)가 중요 척도임
- Domain knowledge 사용
- 태스크 흐름 일지 쓰기
보다 근본적인 해결책이 필요
- "AI를 사용하는 Killer 로봇은 인류의 재앙"
- 인류 전체, 각 분야 전문가의 협력
- AI의 설계, 개발, 사용 전단계에서 공통의 원칙, 가이드라인 구축 필요
각국의 AI 윤리원칙: IEEE
Ethically Aligned Design, IEEE Global Initiative on Ethical Considerations in Autonomous Intelligence and System, V2 ('17)
- 일반원칙
- 인간의 자선(beneficence)에 대한 가장 높은 이상을 인간권리의 초집합(superset)으로 구현한다.
- 자율지능시스템(AI/S)를 사용하여 인류와 자연 환경에 대한 혜택을 우선적으로 고려한다.
- 자율지능시스템이 사회기술 시스템으로 진화하는데 따르는 위험요소들과 부작용들을 경감한다.
- 인간 권리
- 웰빙 우선시
- 책임성
- 투명성
- 자율지능시스템 오용(misuse)과 그에 대한 인식
각국의 AI 윤리원칙: 미국
- Future of Life Institute의 아실로마(Asilomar) AI 원칙 ('17.01)
- 인공지능이 가져올 변화와 위협, 이 기술이 인류에 혜택을 줄 수 있게 하는 23개 원칙
각국의 AI 윤리원칙: 일본
- 일본 총무성, AI 연구 개발 가이드라인(Draft)('17)
각국의 AI 윤리원칙: 한국
- 정보문화포럼 윤리분과, 지능정보사회 윤리 가이드라인 ('17.09)
- 카카오 알고리즘 윤리 헌장 ('18.01)
- 한국의 로봇윤리헌장(가이드라인) ('18.09)
각국의 AI 윤리원칙: 미국
- Google, 인공지능 기술의 향후 사용 시 중요한 7대 원칙 발효 ('18.06)
- 인공지능 기술이 사용되지 않아야 할 부문
Artificial Moral Agent (AMA)
AMA 아키텍처: Soar
- Human-level general cognitive agent 목표
- GPS(General Problem Solver) 목표
- 1980년부터 Allen Newell, Herbert Simon, John Laird 에 의해 공동 개발되었으며, John Laird 교수의 주도로 현재 9.6.0 버전의 Soar 공개
댓글 없음:
댓글 쓰기