2019년 1월 26일 토요일

인공지능과 법, 철학, 윤리 워크숍

   개요
인공지능과 법, 철학, 윤리 워크숍에 다녀왔다.
2명의 교수님들의 강의식 발표와 토론으로 이루어졌는데, 개인적 스케쥴 상 1번 째 김종욱 교수님의 강의만 듣고 나왔다.

인공지능에 대한 기본적인 이해가 필요한 부분이긴 하지만 발표시간 중 절반이 넘는 시간동안 기초 지식에 대한 설명이어서 조금 아쉬웠다.
법, 철학, 윤리에 대한 부분을 기대하고 갔었기 때문에 그 부분이 좀 길었으면 좋았겠다는 생각이 들었다.

하지만, 인공지능의 윤리에 대한 대략적인 개요와 방향들에 대해 알 수 있었고, Aritificial Moral Agent 아키텍처인 Soar에 대해 알게 된 것은 큰 수확이었다.

1. 인공지능의 윤리적 이슈 _ 김종욱 교수(동아대)

   인공지능 개요

4차 산업혁명의 핵심은 인공지능

  • Digital Transformation
    • 인공지능, 로봇, 사물 인터넷, 3D 프린팅, 빅데이터, 가상현실, 블록체인 등의 기술이 주도
    • 가상세계와 현실세계의 결삽(Cyber-Physical System)이 중심
    • 생산 설비가 자동으로 제품 생산(Smart Factory)
  • On-demand 생산
    • 시장에서 필요로 한느 제품을 필요한 순간에 생산
    • 정교한 제조
    • 자원의 낭비 최소화
    • 재고 비용 최소화
    • 초생산(Hyper-Production)의 시대

인공지능이란?
지각(Perception), 학습(Learning), 추론(Inference), 이해(Understanding), 기억(Memory) 등 인간 수준의 지적 능력을 갖는 소프트웨어

  • 기본 지능
    • 계획과 문제풀이
    • 탐색
    • 지식표현
    • 불확실성
  • 지각
    • 자연어 처리/이해
    • 시각
    • 청각
  • 추론/분류
    • Fuzzy 이론
    • Expert 시스템
    • 신경망, 기계학습
  • 활용
    • Data Mining
    • 에이전트
    • 로봇

인공지능의 분류



딥러닝은 어디에서 왔을까?

  • 인공신경망(Artificial Neural Network)
    • 인간의 뇌를 기반으로 한 추론 모델
    • 인간의 뇌: 100억개의 신경세포(neuron)와 각 뉴런을 연결하는 6조개의 시냅스(synapse)로 구성
    • 뉴런: 세포체, 수상돌기, 축색돌기로 구성
딥러닝이란?
  • 신경망(Neural Network)을 쌓아서 다층(3층 이상) 구조
  • end-to-end learning: 내부의 표현(representation)이나 특성(feature)를 자동으로 학습
딥러닝의 적용
  • 컴퓨터 비전과 패턴 인식
    • 흑백 사진과 영상에 색 복원하기
    • 사진, 동영상 설명하기
    • 실시간 동작 추정 및 행동분석
    • 번역, 텍스트 이해
    • 새로운 이미지 만들기
    • 음성, 영상 합성
  • 컴퓨터 게임, 자율주행차
    • NPC 에이전트
    • 도로 상황 인식
  • 예술
    • 음악 작곡
    • 셰익스피어 스타일의 글쓰기
    • Deep Dreaming
    • 유명화가의 화풍 따라서 그리기
    • 초상화 화가 Obvious
  • 금융
    • 주식 트레이딩: 로보 어드바이저
딥러닝의 성공 요인
  • 빅데이터
  • GPU 기반 병렬연산 하드웨어 발전
  • 알고리즘의 개선: CNN, ReLU, pooling, dropout, pruning, ADAM 최적화
  • 오픈소스: TensorFlow, Caffe, MXNet, Chainer, CNTK, PyTorch ...
딥러닝의 구분
딥러닝의 Hero, CNN

   인공지능을 믿고 쓸 수 있을까?

딥러닝의 약점

  • 구조적 문제
    • 복잡한 구조로 인해 개발자조차 성능이 왜 잘(안) 나오는지 설명할 수 없음
    • 비정상 값 출력 혹은 오류 발생 시 원인 파악의 어려움
    • 딥러닝을 사회 인프라 적용 시 긴급 복구, 정비 불가능
  • 데이터 관련 문제
    • 방대한 양의 데이터 필요
    • 가능한 모든 경우에 대한 데이터 확보
    • 데이터의 편향 가능성 고려
    • 학습 상황과 다른 상황에서 적용 시 문제
  • 변화의 대처에 취약
    • 새로운 데이터나 기능 추가
    • 시스템의 변화 또는 적용 분야의 변화
해결책: Explainability, Transparency
  • 딥러닝은 복잡한 블랙박스
  • 딥러닝의 오용, 남용, 실패에 대비
  • 설명가능성과 투명성 없이는 딥러닝을 신뢰(trust)할 수 없고, 실제 문제에 적용하는데 한계가 있음(ex. 자율주행자동차)
  • Human-in-the-loop machine learning, eXplainable AI(XAI), Transparent Machine Learning, ...
  • 딥러닝의 설명성, 투명성을 위한 방안
    • 딥러닝 프로세스의 시각화(visualization)
    • 딥러닝 알고리즘 설명: Feature/instance contribution to DL model, Mathematical models for DL model explanation -> 수학적 기능의 중요성이 매우 커질 것이다.
    • 사용자의 Cognitive Response Communication: DL 결과에 대한 사용자의 trust, 그 결과를 기반으로 판단 시 confidence(확신)가 중요 척도임
    • Domain knowledge 사용
    • 태스크 흐름 일지 쓰기
보다 근본적인 해결책이 필요
  • "AI를 사용하는 Killer 로봇은 인류의 재앙"
  • 인류 전체, 각 분야 전문가의 협력
  • AI의 설계, 개발, 사용 전단계에서 공통의 원칙, 가이드라인 구축 필요

   각국의 AI 윤리원칙: IEEE

Ethically Aligned Design, IEEE Global Initiative on Ethical Considerations in Autonomous Intelligence and System, V2 ('17)

  • 일반원칙
    • 인간의 자선(beneficence)에 대한 가장 높은 이상을 인간권리의 초집합(superset)으로 구현한다.
    • 자율지능시스템(AI/S)를 사용하여 인류와 자연 환경에 대한 혜택을 우선적으로 고려한다.
    • 자율지능시스템이 사회기술 시스템으로 진화하는데 따르는 위험요소들과 부작용들을 경감한다.
  1. 인간 권리
  2. 웰빙 우선시
  3. 책임성
  4. 투명성
  5. 자율지능시스템 오용(misuse)과 그에 대한 인식
각국의 AI 윤리원칙: 미국
  • Future of Life Institute의 아실로마(Asilomar) AI 원칙 ('17.01)
    • 인공지능이 가져올  변화와 위협, 이 기술이 인류에 혜택을 줄 수 있게 하는 23개 원칙

각국의 AI 윤리원칙: 일본
  • 일본 총무성, AI 연구 개발 가이드라인(Draft)('17)

각국의 AI 윤리원칙: 한국
  • 정보문화포럼 윤리분과, 지능정보사회 윤리 가이드라인 ('17.09)
  • 카카오 알고리즘 윤리 헌장 ('18.01)
  • 한국의 로봇윤리헌장(가이드라인) ('18.09)
각국의 AI 윤리원칙: 미국
  • Google, 인공지능 기술의 향후 사용 시 중요한 7대 원칙 발효 ('18.06)
  • 인공지능 기술이 사용되지 않아야 할 부문

   Artificial Moral Agent (AMA)

AMA 아키텍처: Soar

  • Human-level general cognitive agent 목표
  • GPS(General Problem Solver) 목표
  • 1980년부터 Allen Newell, Herbert Simon, John Laird 에 의해 공동 개발되었으며, John Laird 교수의 주도로 현재 9.6.0 버전의 Soar 공개

댓글 없음:

댓글 쓰기