본문으로 바로가기

책임감 있는 AI(Responsible AI)

  • 작성일20240424
  • 조회수84
책임감 있는 AI(Responsible AI)

  책임감 있는 AI는 AI 기술에 대한 ‘신뢰’와 ‘윤리’를 추구하기 위해 제시된 대안의 하나이다(삼일PwC경영연구원 2023). 생성형 AI 이후 기술과 산업의 가파른 성장 속에서 기업이 AI 기술을 개발하고 확산하는 과정이 얼마나 윤리적이고 신뢰할 수 있는지, 또는 사용자 개인정보와 사회적 가치를 존중할 수 있는지를 고민해야 한다는 가치에서 시작되었다.
  AI는 데이터 처리 과정에서 비선형적이고 블랙박스적 특성을 내재하고 있어, 결과를 해석하고 이해하기 위해 별도의 처리 기준이 필요할 만큼 신뢰성과 투명성, 설명 가능성이 필요하다(구본진 2024). 따라서 AI의 위험성에 대응하기 위해 기업에서는 AI 서비스 시 안전성과 신뢰성을 보장하는 원칙을 마련하고, 책임 있는 AI 툴킷2)을 개발해 공개하고 있다. 대표적으로 구글은 7가지 AI 원칙을 수립하고, 설명 가능한 AI(explainable AI), 모델 카드(model cards), 텐서플로 오픈소스 툴킷(TensorFlow open-source toolkit)3) 등을 개발해 배포하였다. 공공에서는 AI 기술의 부정적 영향에 대응하기 위해 관련 법·제도, 윤리 기준, 위험 관리 프레임워크 등을 마련하고 있다. 캐나다에서는 국가적 기본 원칙과 인증, AI 알고리즘 평가, 지침 등을 마련해 대응하고 있으며, 한국에서는 「AI 윤리기준」(2020.12.)과 AI 저작권법 제도 개선(2023.2.)과 AI 신뢰성 인증(2023.12.) 등을 시행하고 있다.


유인재|국토연구원 연구원


참고문헌
구본진. 2024. 안전·신뢰 AI. 기술주권 브리프 125. 음성: 한국과학기술평가원(KISTEP).
김태원. 2023. [THE AI REPORT 2023-10] 공공분야 생성형 AI 활용 방안. 대구: 한국지능정보사회진흥원.
삼일PwC경영연구원. 2023. 책임 있는 AI. 서울: 삼일회계법인.
캐나다 정부 홈페이지. 「Responsible use of artificial intelligence (AI)」. https://www.canada.ca/en/government/system/digital-government/digital-governmentinnovations/responsible-use-ai/algorithmic-impact-assessment.html (2024년 3월 25일 검색).
한정훈. 2023. 생성형 AI 시대의 개막. 미디어 이슈&트렌드 2023년 3·4월호(Vol.55), 6-17. 나주: 한국방송통신전파진흥원.
홍은주. 2023. ChatGPT를 넘어, 생성형 AI(Generative AI)의 미래. https://www.samsungsds.com/kr/insights/future_of_generative_ai_1.html (2024년 3월 25일 검색).
본 공공저작물은 공공누리 “출처표시+상업적이용금지+변경금지” 조건에 따라 이용할 수 있습니다.