본문 바로가기

알아야 산다/IT 최신 정보

[IT 최신 정보] 운전도 주차도 알아서 딱! 매력적인 자율주행차!! 그런데 안전한가요?

 

요즘 여기저기서 미래차 이슈로 시끌시끌해요. 전기차에다가 자율주행까지! 인공지능(AI) 및 사물인터넷(IoT) 등 4차 산업혁명의 핵심 기술들이 '모빌리티'로 집중되고 있습니다. 자율주행차의 경우, 상상만해도 참 행복해집니다. 올라타면 바로 출퇴근 시켜주고 주차까지 딱! 차안에서 할 수 있는 것들이 참 많아지겠어요. 이렇게되면 직장에서 멀리 떨어진 곳에 살더라도 통근 시간에 스트레스 받지 않고 오히려 그 시간을 즐길 수 있을 것 같습니다.  

자율주행차는 AI 시스템을 기반으로 운행방법을 결정하기 때문에, 혹여라도 시스템의 오류나 기능상 장애가 발생하는 경우 운전자는 물론이고 보행자에게 치명적인 위험을 초래하겠지요. 사실 얼마 전에도 자율주행차가 사고를 일으켰다는 뉴스를 몇번 접했던 것 같습니다. 기사를 보아하니 사고 발생시 '운전자 과실'이냐 '인공지능 책임'이냐도 꽤 문제가 되겠더라고요.  

 

 

 

현재 국제자동차기술자협회(SAE International)의 분류 기준에 따르면 세계적인 자율주행차 기업들의 자율주행 기술 수준은 4단계에 진입하고 있는 것으로 평가돼요. 4단계부터는 운전에 대한 책임이 운전자 보다는 차량시스템에 더욱 의존하기 때문에 4단계 이상의 자율주행차가 본격적으로 운행되면 AI 시스템의 안전과 보안성은 더욱 중요해질 전망이라고 합니다.

 

 

컨설팅사인 맥킨지(Makinsey&Company)는 미래적인 자동차(자율주행차, 커넥티드카, 전기자동차, 공유차)의 글로벌 시장 규모를 2020년 2조 3,800억 달러에서 연평균 7%로 지속 성장하여 2030년에는 4조 6,900억 달러에 이를 것으로 전망하고 있어요. 그러나 미래에 자율주행차 활용이 보편화될 것으로 예상되면서 자율주행 차량에서 수집·보유·전송한 대규모 데이터에 대한 보안과 차량 내 AI 시스템에 대한 보안이 우선적으로 해결해야할 과제 중 하나로 대두되고 있습니다. 

차량 내 AI 시스템이 주변의 네트워크, 인프라, 장비공급업체, 차량서비스업체 등과 실시간으로 통신하면서 보유한 데이터가 전송 및 공유되고, 이러한 데이터가 유출될 위험도 커질 수 있다는 것이지요. 또한 차량제조업체, 부품업체, 센서기기업체, 차량운영자, 도시기반시설 설계자, 보험회사, 경찰 등 다양한 이해관계자들이 차량 데이터를 이용하면서 해커조직에 의한 지능화된 사이버보안 위협과 개인정보 침해 위험이 증가할 수 있어요.

 

 

ㅣ얼마나, 어떻게 위험해지나요?

 

자율주행차에서는 운전자, 승객, 보행자에게 완전히 다른 유형의 안전위험을 초래할 수 있습니다. 특히 자율주행차에서 AI 의존도가 증가하면서 차량의 디지털화가 증가하고 사이버공격 표면이 확대되어 공격자가 자율주행차를 집중적인 표적으로 삼아 공격을 시도할 수도 있어요. 이러한 자율주행차 환경의 AI 취약성을 악용하는 5가지 가상 공격 시나리오가 제시된 바 있어요. JRC(Joint Research Center)와 ENISA(European Union Agency for Cybersecurity)라는 곳에서 보고서를 냈습니다. 같이 살펴보실까요?  

 

 

 

 

1. 도로표지판 인식 및 차선 감지 이미지 처리 모델에 대한 악의적 행위 

공격자들은 도로표지판(정지, 속도 제한 표지판 등)의 그림에 대한 변경, 차선에 대한 변경, 스티커 배치, 빛의 투영 등 차량 주변의 물리적 환경의 변경으로 혼돈을 유발시켜 자율주행차가 주변환경에 대해 오류정보를 인식하도록 유도할 수 있다. 이러한 공격으로 인해 자율주행차는 주변환경에 대한 인식 착오로 오작동이 발생할 수 있다.   


 

2. 계획 모듈에 대한 중간자(Man-in-the-Middle) 공격 

공격자가 차량의 헤드유닛(HU)에서 원격으로 악용할 수 있는 취약점을 발견하고 인터넷을 통해 보안이 취약한 차량의 헤드유닉을 원격으로 침투할 수 있다. 공격자는 헤드유닉에 침입해 차량의 내부 네트워크에 변조된 모듈을 삽입해 인터넷통신을 가로채 공격을 가할 수 있다.  


 

3. 정지 신호 감지에 대한 데이터 중독(Data Poisoning) 공격 

운행 중인 자율주행 자동차는 회사에 정보를 지속적으로 전송하며, 공격자가 차량의 정보전송이 많은 특정상황(차량이 결정할 때 불확실성이 높은 상황)을 악용할 수 있다. 제조업체가 정기적으로 자율주행차의 AI 모델 업데이트를 할 때 AI 모델 내부에 예기치 않은 동작을 주입할 수 있기 때문. 차량 업데이트 후 공격자는 공격표적의 교통신호 표시를 수정하여 자율주행차가 잘못된 행동을 취하도록 속일 수 있다. 

 

4. 악성 펌웨어를 대규모 유포하는 공격  

개발자 또는 백엔드 서버에 침투할 수 있는 외부공격자는 서버에 악성 AI 펌웨어를 배포하고, AI 모델의 악성 OTA(Over-the-air) 업데이트를 실행할 수 있다. 이러한 공격은 이미지 인식 기능을 조작하거나 자율주행차가 도로나 횡단보도를 건너는 보행자에게 피해를 끼칠 수 있어 거리에 혼란을 초래할 수 있다. 

 

5. 센서/ 통신 트래픽 혼잡 및 GNSS 스푸핑 공격 

공격자는 무선 네트워크에 많은 트래픽을 유발하여 센서의 메시지 수신을 방해하고, 차량이 차량-사물 메시지를 전송하거나 수신할 수 없도록 한다. 공격자는 또한 오류신호(피해자 수신기에서 잘못된 위치 기반 정보를 생성하려는 의도로 GNSS(Global Navigation Satellite Systems) 유사 신호)를 방출하여 통신을 스푸핑*하거나 무선센서를 악용해 통신 채널에 부정적인 영향을 미칠 수 있다. 이로 인해 대상 센서에 의존하는 AI 모델에 문제를 발생시켜 차량기능에 문제를 유발할 수 있으며, GNSS 스푸핑의 경우 AI 알고리즘에 의도적으로 오류정보를 제공해 차량기능과 관련하여 잘못된 결정을 내리게 할 수 있다.

*스푸핑: 임의로 구성된 웹사이트를 통하여 이용자의 정보를 빼가는 해킹 수법의 하나

 

 

 

ㅣ 그렇다면 어떻게 대응해야 하나요? 

 

시나리오를 쓱 훑어보면, 상당히 치명적이라는 느낌이 훅 와요. 이러한 문제점이 개선되지 않으면 자율주행차는 그저 행복한 꿈에 그치지않을까 싶습니다. 과연, 어떻게 보완할 수 있을지 그것이 관건이겠어요. 

 

 

 자율주행 환경의 AI 보안 도전과제와 권장사항 

1. AI 모델 및 데이터의 체계적인 보안 검증  

 

데이터는 머신러닝 모델 학습에서 AI 시스템을 구축하고 검증할 때 중요한 역할을 하므로, 자율주행차 상황에서 공격자들의 데이터 조작을 통해 예기치 않은 혼란과 피해를 방지할 수 있는 체계적인 데이터 유효성 검사가 필요하다. 데이터 종속성과 모델 복잡성을 고려하고, 데이터의 품질과 신뢰성을 보장하기 위해 체계적인 검증을 수행하여 AI 모델에 대한 보안성과 견고성을 평가하고 시험해야 한다. 

 


2. AI 사이버 보안과 관련된 공급망 문제 해결 

 

소프트웨어 및 하드웨어 공급망의 보안은 사이버 보안에서 특히 중요하며, AI 구성요소의 공급망 전반에 걸쳐 적절한 보안정책과 전략이 없으면 복원력이 미흡하고 보안 사고가 발생할 수 있다. 공급망 전체에서 보안 거버넌스를 보장하려면 개발자, 제조업체, 공급자, 벤더, 네트워크 사업자, 보험, 이용자 등 다양한 이해관계자들의 참여가 요구된다. 최근 AI 시스템이 자율주행차 공급망 전반에 활용되면서 자동차 공급망 전반에서 AI 관련 보안 위험이 발생할 수 있다. 자율주행차에서 전자제어장치(ECU)를 통합하는 새로운 플레이어(테슬라 등)가 있지만 대부분의 차량 제조업체는 타사의 ECU에 의존하므로 여러 제조업체의 ECU를 사용한다. 이에 따라 복잡한 자동차 공급망에서 견고하고 안전한 AI 모델이 부족하면 사이버 보안과 관련하여 심각한 우려를 유발하고, 사이버 보안 사고로 인해 전체 자동차 생태계에 커다란 위협에 직면할 수 있다.  

 


3. AI 사이버 보안을 기존의 사이버 보안 원칙과 통합하기 위해 총체적으로 접근

 

자율주행차에서 빠르게 진화하는 위협에 대응하기 위해 AI 시스템에 대한 보호의 필요성이 증가하고 있으며, 특히 기존의 사이버 보안 원칙과 새로운 AI 사이버 보안을 통합할 필요가 있다. 자율주행차의 AI 의존도가 증가하면 AI 알고리즘을 표적으로 삼은 공격이 증가하고, 이로 인한 심각한 피해가 예상된다. 이러한 공격에 효과적으로 대처하기 위해서는 AI 시스템의 다양성과 상호작용을 고려한 포괄적인 접근 방식, AI 시스템의 모든 단계를 고려하는 통합된 보안 체계, 심층적인 방어전략 적용 등이 필요하다. 차량 시스템의 보안을 고려해 설계 및 개발되어도 시간이 지남에 따라 장비가 추가되고 소프트웨어와 주요 기능이 변경되기 때문에, 생명주기 전반의 통합적인 보안 접근이 필요하다.  

 


4. AI와 관련된 보안 인식 고취 및 대응 노력 

 

많은 조직에서 AI 시스템의 취약성에 대한 보안 인식과 대응 노력은 상당히 미흡한 수준이다. AI 보안 위험에 대한 충분한 지식이 없거나 위험을 과소평가하는 인식이 팽배하면 AI 보안 위험을 증폭시킬 수 있다. 사이버 보안 상황에 대한 잘못된 인식을 개선하기 위해서는 인식 제고 교육이 필수적이다. 즉, 자율주행차에서 AI 기반의 디지털 구성요소와 관련된 사이버 보안 사고 처리와 대응계획을 고려해야 한다. 자율주행차 공급망에 관련된 모든 이해관계자는 위험과 공격을 사업 운영에 연관시킬 수 있도록 증가하는 AI 위협 환경을 인식해야 하며, 전체 공급망에 걸쳐 보안 프로그램 개발을 촉진할 필요가 있다. 


5. 자동차 산업의 AI 사이버 보안에 대한 역량과 전문지식 제고 

 

AI 사이버 보안에 대한 개발자와 시스템 설계자 사이에 충분한 보안 지식과 전문지식의 부족은 자동차 부문의 보안 통합을 방해하는 주요 장벽으로 작용한다. 개발자의 AI 지식 부족은 공격자가 자율주행차의 AI 구성요소를 표적으로 삼아 공격할 수 있는 단초를 제공한다. 개발자가 보안 설계 및 구현에 대한 인식이 미흡하면 개발 단게에서 보안에 대한 고려가 미흡하거나 오류 등으로 소프트웨어가 작동할 때 악용될 수 있는 취약성을 초래할 수 있다. 


※ 자료 출처: 2021 KISA REPORT Volume 02, 자율주행차의 AI 시스템에 대한 사이버보안

 

 

 

 

정보가 유익하셨다면 
사이렌24 홈페이지도 방문해주세요!!  
 ▼ ▼  바로가기 클릭 클릭  ▼ ▼