[김희성 변호사의 미래교통] 인공지능(AI) 모빌리티의 시대
상태바
[김희성 변호사의 미래교통] 인공지능(AI) 모빌리티의 시대
  • 교통신문 webmaster@gyotongn.com
  • 승인 2023.12.11
  • 댓글 0
이 기사를 공유합니다

인공지능(Artificial Intelligence, AI)은 사람처럼 학습하고 추론할 수 있는 시스템이다. 4차 산업혁명의 핵심은 AI이다. 모빌리티의 핵심 기술 역시 AI이다. 모빌리티는 ‘모로 가도 가면 된다’를 넘어 ‘원하는 시간에 원하는 곳을 원하는 방식으로 간다’ 개념이다. 따라서 단순한 이동수단을 넘어 다양한 서비스와 결합한다. 이동에 필요한 기술뿐만 아니라 모빌리티에 결합하는 다양한 서비스에 AI가 활용된다.

자율주행 기술은 AI가 필요한 데이터를 수집하고 딥러닝하면서 판단·제어 기술이 발전하고 있다. 또한 AI은 교통량, 도로의 환경 등 현재의 데이터를 분석해 미래의 데이터를 산출하고, 그를 바탕으로 최적의 경로를 설정한다. 수요자와 공급자를 적절하게 매칭해 실시간으로 연결함으로써 수요응답형 모빌리티(Mobility on Demand, MoD)를 구현한다.

인공지능은 수집한 방대한 데이터를 기반으로 심층 인공신경망을 통해 딥러닝(Deep Learning)하면서 고도화 된다. 그런데 방대한 데이터를 수집하는 과정에서 개인정보를 위법하게 수집할 가능성이 있다. 만약 적법하게 데이터를 수집했더라도 데이터가 편향되면 AI의 산출물 역시 편향되고, 나아가 위법한 결과를 초래할 수 있다.

일례로 AI 챗봇 ‘이루다’는 사람들의 대화 데이터를 기반으로 학습해 사람처럼 대화를 할 수 있는 대화형 AI이다. 서비스 출시 2주 만에 가입자가 80만명이 넘었다. 그런데 성소수자, 장애인 혐오, 성희롱 발언 논란으로 서비스가 중단됐다. 데이터를 수집하는 과정에서 개인정보를 위법하게 수집했고, 성소수자, 장애인에 대한 편향된 혐오 데이터를 기반으로 딥러닝해 혐오 발언을 함으로써 문제가 됐다.

이는 모빌리티 AI도 마찬가지이다. 국토부가 발표한 자율주행자동차 윤리 가이드에 의하면 자율주행 자동차는 인간의 존엄성, 국제법적으로 인정된 인권과 자유, 프라이버시 및 문화적 다양성을 존중하고, 인간을 성별, 나이, 인종, 장애 등을 이유로 차별하지 않도록 설계, 제작, 관리돼야 한다. 자율주행 AI가 편향된 데이터로 학습을 하면 나이, 인종, 장애를 이유로 차별하는 사고를 초래할 수 있는 것이다.

AI 운영자는 개인정보보호법상 개인정보처리자 또는 취급자의 지위를 갖기 때문에 개인정보보호법을 준수해야 한다. 자율주행자동차 윤리 가이드는 자율주행을 하는 과정에서 수집하는 데이터는 프라이버시를 존중하고 인권을 존중하는 것을 기본 가치로 적시한다.

자율주행을 위해 차량 정보, 운행자 정보, 보행자 정보, 위치 정보, 행태 정보, 신체 정보 등 다양한 정보가 필요하다. 자율주행차는 하루 1테라바이트에 해당할 정도로 많은 데이터를 수집한다. 데이터의 양과 질은 AI의 발전과 직결되기 때문에 개인정보를 침해할 위험성은 더욱 높다. 익명처리, 가명처리 등 비식별 조치를 해 개인정보를 보호하면서 활용하는 것이 중요하다. 그러나 가명처리를 하더라도 여러 가지 추가 정보가 결합되면 개인 식별성을 가지는 개인정보가 될 가능성이 있어 가명처리에 대한 지침을 구체화할 필요가 있다.

자율주행자동차 상용화 촉진 및 지원에 관한 법률은 익명 처리된 개인정보의 활용의 특례를 규정하고 있지만, 시범운행지구에서 적용되는 한시법적 차원이다. 현재는 개인정보 보호의 해석 및 지침으로 ‘가명정보 처리 가이드라인’, ‘인공지능 개인정보보호 자율점검표’가 제정돼 있다. 개인정보보호법에 이동형 영상정보처리기기의 운영 제한에 관한 규정(개인정보보호법 제25조의 2)가 신설돼 모빌리티가 운행하면서 취득하는 영상정보의 처리에 대한 제한 규정이 도입됐으나 미진한 부분이 많아 앞으로 개인정보보호법의 규정을 보완할 필요가 있다.

AI의 발전은 눈부시게 빨라서 법제도가 이를 따라잡기에는 버거울 수밖에 없다. 인공지능은 사람이 프로그래밍한 규칙에 기반을 둔 인공지능에서 주어진 데이터를 기반으로 스스로 학습하는 머신 러닝, 딥러닝 인공지능으로 발전했다. 궁극적으로는 인간의 개입 없이 스스로 학습하고 발전하는 범용 인공지능(AGI, Artificial General Intelligence)으로 발전할 것이다. 미리 학습된 데이터를 활용해 결과물을 만들어 내는 ‘생성형’ AI Chat GPT(Generative Pre-trained Transformer)도 궁극적으로는 범용 AI로 발전할 것이다. 인공지능이 인간의 지능과 같은 능력으로 볼 수 있는 시대가 도래하는 것이다. 일론 머스크는 AI가 핵보다 위험하다고 일갈했다. AI의 대부라는 제프리 힌튼 교수, Chat GPT를 만든 Open AI의 샘 알트먼 역시 AI의 위험성을 말하고 있다.

AI로 발생하는 문제는 기존의 법령과 저촉되거나 아예 법령의 공백이 있는 영역에서 발생할 수 있다. 법률적 문제를 피하더라도 윤리적 문제가 생길 수 있고, 법률적 문제 해결의 기초는 철학적 윤리적 기준이 선행돼야 한다. 따라서 인공지능에 대한 우리 사회 전체 구성원의 깊은 고민과 사회적 논의가 필요하다.

 

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.