본문 바로가기
카테고리 없음

AI의 윤리적 고려 사항

by 안행과 함께 2023. 7. 13.
반응형

인공지능과 관련해서 최근 이슈가 되고 있는 주제 중 하나는 인공지능에게 도덕성을 부여해야 하는가 하는 문제이다. 이 글에서는 인공지능 개발자들이 가져야 할 윤리적 관점에 대해 논하고자 한다.

AI의 도덕성 고려사항
AI의 도덕성

1. 인공지능에게도 도덕성이 있을까?

인간에게는 양심이라는 것이 있어서 자신의 행동이 옳은 일인지 아닌지 판단할 수 있고, 옳지 않은 행동을 했을 때 죄책감을 느낀다. 하지만 인간 이외의 동물 혹은 기계 등 비인공지능 양심인간 주체(non-human subject)인 인공지능에게 양심이란 존재할까? 이러한 물음에 대한 답은‘아니요’라고 말할 수 있다. 왜냐하면 우리가 말하는 양심은 옳고 그름을 판단하는 마음이지만, 인공지능은 그러한 인지능력이 없기 때문이다. 따라서 인공지능에게 양심을 부여한다는 것은 불가능하며, 단지 주어진 상황에서 최선의 선택을 하도록 프로그래밍되어 있다고 보는 것이 타당할 것이다.

 

2. 인공지능 기술 발전 속도가 너무 빠른데 어떻게 대처해야 할까?

인공지능 분야에서의 연구개발 및 상용화 노력은 매우 빠르게 진행되고 있다. 특히 4차 산업혁명 시대 도래 이후 빅데이터, 사물인터넷, 클라우드 컴퓨팅, 모바일 등 다양한 ICT 기술과의 융합을 통해 더욱 가속화되고 있다. 현재 세계 각국 정부에서도 인공지능 기반 신산업 육성 정책을 적극 추진하고 있으며, 국내에서도 지능정보기술연구원 설립 계획 발표 등 국가 차원의 지원책 마련에 힘쓰고 있다. 다른 전문가는 정부 차원의 정책 마련이 시급하다고 지적했다. 김진형 중앙대 석좌교수는 "우리나라는 아직 제대로 된 인공지능 연구개발 계획조차 없다"라며 "정부 주도로 장기적인 로드맵을 만들어 인재 양성 및 투자 확대 방안을 세워야 한다"라고 강조했다. 그러나 한편으로는 인공지능 기술발전 과정에서 발생할 수 있는 여러 가지 사회적·윤리적 쟁점들을 사전에 검토하고 해결하려는 노력 또한 요구된다.

 

3. 인공지능 윤리에 관한 국제 규범이 있나?

현재 인공지능윤리에 관한 국제규범은 없다. 다만 EU 집행위원회 산하 경제재무이사회(ECOFIN) 권고안 제16 “AI: The future of humanity” (2016 10)나 미국 국립표준기술연구소(NIST) 가이드라인 NSF/G7 Guidelines on Artificial Intelligence and the Future of Humanity (2017 5) 등 개별 국가 또는 기관별로 제시되는 지침 수준의 논의가 이루어지고 있다.

 

4. 결 론

이러한 논의 과정에서 반드시 짚고 넘어가야 할 부분이 있다. 바로 윤리다. 아무리 좋은 의도라도 잘못된 방향으로 나아간다면 오히려 해가 될 수 있다는 점을 명심해야 한다. 특히 데이터 편향성과 같은 이슈는 자칫하면 큰 사회적 혼란을 야기할 수 있다. 따라서 개발자들은 자신만의 이익을 추구하기보다는 공익을 우선시하는 자세를 갖춰야 하며, 기업 역시 이윤 추구에만 몰두해서는 안 된다. 또한 이용자 스스로도 올바른 정보를 선별하려는 노력이 필요하다. 인공지능시대 미래 인류의 삶을 위해서라도 인공지능 활용 시 제기될 수 있는 윤리적 문제에 대하여 깊이 있게 고민하고 이를 해결하기 위한 방안을 모색하여야 하겠다.