메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

한빛출판네트워크

한빛랩스 - 지식에 가능성을 머지하다 / 강의 콘텐츠 무료로 수강하시고 피드백을 남겨주세요. ▶︎

안전한 인공지능 시스템을 위한 심층 신경망 강화

적대적 공격에 속지 않는 심층 신경망 만들기

한빛미디어

번역서

판매중

  • 저자 : 케이티 워
  • 번역 : 김영하
  • 출간 : 2020-12-01
  • 페이지 : 256 쪽
  • ISBN : 9791162243534
  • eISBN : 9791162247372
  • 물류코드 :10353
  • 초급 초중급 중급 중고급 고급
4.5점 (12명)
좋아요 : 19

쉽게 속지 않는 인공지능을 위한 심층 신경망 강화 프로젝트

 

일상생활에 보편화된 인공지능 시스템은 자율 주행차, 음성 어시스턴트, 얼굴 인식 장치 등 다양한 곳에 활용된다. 인공지능의 발전과 더불어 인공지능 시스템을 속이려는 공격자가 곳곳에 도사리고 있으며, 의도적으로 시스템을 속이기 위한 악의적인 데이터가 만들어지고 있다. 이러한 데이터는 각종 데이터 속에 숨어서 다양한 방법으로 인공지능을 속인다.

 

이 책은 인공지능 시스템을 속이는 적대적 공격을 소개한다. 공격자가 시스템을 공격하는 동기를 파악하고 적대적 공격의 위험성을 알아본다. 또한 적대적 공격이 이미지, 오디오, 비디오 데이터를 활용해 인공지능을 속이는 실제 사례를 살펴본다. 신경망을 공격하는 방법과 공격을 방어하는 방법을 이해하며 인공지능 분야가 나아갈 미래를 알아보자.

  • 심층 신경망(DNN) 이해하기
  • 적대적 공격이 심층 신경망을 어떻게 속이는지 알아보기
  • 적대적 공격이 심층 신경망을 무엇으로 속이는지 알아보기
  • 심층 신경망을 속이는 실제 사례 살펴보기
  • 적대적 공격에 강한 인공지능 시스템 만들기
케이티 워 저자

케이티 워

컴퓨터 성능과 데이터가 부족해 딥러닝 이론을 구현하지 못하고 있던 시절에 에든버러 대학교에서 인공지능과 컴퓨터공학 학위를 받았다. 오랫동안 엔터프라이즈 소프트웨어를 개발했으며, 최근에는 인공지능 전문가로 활동하고 있다. 일상생활에 깊숙이 스며든 인공지능과 함께 삶의 즐거움을 누린다.

김영하 역자

김영하

새로운 기술에 관심이 많은 개발자이자 번역가. 삼성SDS, 미래에셋증권, GS홈쇼핑 등 기업에서 다양한 프로젝트에 참여해 실무 경력을 쌓았다. 현재는 디플러스에서 데이터 분석 연구원으로 일하며, 주로 인공지능과 데이터 분석 분야 강사로 활동한다. 새 기술과 최신 정보를 공유하고자 『안전한 인공지능 시스템을 위한 심층 신경망 강화』(한빛미디어, 2020), 『Do it! 데이터 분석을 위한 판다스 입문』(이지스퍼블리싱, 2018), 『파이썬 웹 스크래핑』(2017), 『Splunk 앱 제작과 대시보드 개발』(2016, 이상 에이콘출판사), 『뷰티풀 자바스크립트』(2016), 『누구나 쉽게 배우는 스몰베이직』(2016, 이상 비제이퍼블릭) 등을 번역했으며, EBS 이솦에서 데이터 분석 컨텐츠를 제작한다.

CHAPTER 1 소개

1.1 딥러닝 소개

1.2 딥러닝 역사

1.3 인공지능의 ‘착시 현상'

1.4 ‘적대적 입력’이란 무엇인가

1.5 ‘적대적 머신러닝’의 광범위한 분야

1.6 적대적 입력의 의미

 

CHAPTER 2 공격 동기

2.1 웹 필터 우회

2.2 온라인 평판과 브랜드 관리

2.3 감시 위장

2.4 개인 정보 온라인 

2.5 자율 주행차의 혼동

2.6 음성 제어 장치

 

CHAPTER 3 심층 신경망

3.1 머신러닝

3.2 딥러닝 개념

3.3 수학 함수로서의 심층 신경망 모델

3.4 간단한 이미지 분류기 만들기

 

CHAPTER 4 이미지, 오디오, 영상을 처리하는 심층 신경망

4.1 이미지

4.2 오디오

4.3 영상

4.4 적대적 고려 사항

4.5 ResNet50을 사용한 이미지 분류


CHAPTER 5 적대적 입력의 원리

5.1 입력 공간

5.2 DNN의 사고를 가능하게 하는 원리

5.3 섭동 공격: 변화의 최소화, 영향의 최대화

5.4 적대적 패치: 산만의 최대화

5.5 탐지 가능성 측정

5.6 요약

 

CHAPTER 6 적대적 섭동을 생성하는 방법

6.1 화이트 박스

6.2 제한된 블랙박스 방법

6.3 점수 기반 블랙박스 방법

6.4 요약

 

CHAPTER 7 시스템에 사용하는 공격 패턴

7.1 공격 패턴

7.2 재사용할 수 있는 섭동과 패치

7.3 통합: 하이브리드 접근법과 절충안

 

CHAPTER 8 물리적 공격

8.1 적대적 물체

8.2 적대적 음향

8.3 실생활 속에서 적대적 사례의 타당성


CHAPTER 9 모델 견고성 평가

9.1 적대적 목표, 역량, 제약, 정보

9.2 모델 평가

9.3 요약

 

CHAPTER 10 방어

10.1 모델 개선

10.2 데이터 전처리

10.3 대상 감추기 

10.4 적대적 입력에 대항하는 강력한 방어 구축

 

CHAPTER 11 미래 동향: 속지 않는 견고한 인공지능

11.1 윤곽을 인식해 견고성 향상하기

11.2 다중감각 입력

11.3 객체 구성과 계층

11.4 마치며

출판사 리뷰

 

이 책은 인공지능이 이미지, 오디오, 비디오 데이터를 처리하기 위해 우리 일상생활에서 악용되는 실제 상황을 고려해 그곳에서 야기되는 적대적 입력의 동기, 실현 가능성, 위험성을 알아본다. 이 주제를 알기 쉽게 직관적으로 설명하는 동시에 수학적으로 조리 있게 설명하고, 인공지능 시스템을 적대적 입력에 맞서 어떻게 더 견고하게 만들 수 있는지 살펴본다.

 

인공지능을 속이는 방법을 이해하면 종종 베일에 싸인 듯 불투명해 보이던 심층 신경망 알고리즘, 그리고 이러한 알고리즘과 인간의 뇌가 감각 입력을 처리하는 방법상의 차이를 명확하게 알게 된다. 이 책은 이러한 차이와 어떻게 하면 이 둘 간의 격차를 좁혀 미래에 인공 학습이 생물학적 학습에 더 가까이 다가갈 수 있는지 그 방법을 탐색한다.

 

1부 인공지능을 속이는 기술: 적대적 입력과 공격 동기를 소개하고 이미지와 오디오 데이터 처리를 위한 딥러닝의 기본 개념을 설명한다.

  • 1장: 적대적 인공지능과 딥러닝이라는 광범위한 주제를 소개한다.
  • 2장: 적대적 이미지, 오디오, 비디오의 생성 뒤에 숨겨진 잠재적 동기를 살펴본다.
  • 3장: 딥러닝 개념을 설명한다.
  • 4장: 이미지, 오디오, 비디오 처리에 사용하는 심층 신경망을 수준 높게 개괄하여 이후 내용을 이해할 수 있는 기반을 마련한다.

 

2부 적대적 입력 생성하기: 적대적 입력과 적대적 입력을 생성하는 방법을 구체적으로 설명한다.

  • 5장: 적대적 입력을 뒷받침하는 개념을 설명한다.
  • 6장: 적대적 입력을 생성하는 계산법을 추가해 더 자세히 설명한다.

 

3부 실제 위협 이해하기: 2부에서 설명한 방법을 기반으로 공격자가 실제 세계에서 사용하는 공격 방법과 이때 마주하는 어려움을 알아본다.

  • 7장: 2부에서 정의한 방법을 기반으로 실제 시스템에 사용할 때 실제 공격과 적대적 공격이 직면하는 과제를 설명한다.
  • 8장: 물리적 세계에서 개발되고 만들어진 적대적 물체나 적대적 소리의 구체적인 위협을 탐구한다.

 

4부 방어: 3부의 내용을 기반으로 적대적 입력을 방어하는 방법을 알아본다.

  • 9장: 신경망의 견고성을 평가하는 두 가지 방법, 즉 경험적 평가와 이론적 평가를 설명한다.
  • 10장: 적대적 입력에 대비해 심층 신경망 알고리즘을 강화하는 방법 중 가장 최근에 알려진 자료를 살펴본다. 그다음 종합적 관점에서 신경망 기술에 도입할 수 있는 방어 조치를 고려한다.
  • 11장: 미래 동향과 심층 신경망이 향후에 어떻게 진화할지 내다본다.

 

deep-neural-networks.JPG

 

 
안녕하세요 괴짜 개발자 namedboy 입니다.
 
심층 신경망 인공지능 하면 어떤 단어들이 떠오르시나요?
인공, 복잡한, 어려운, 복잡계, 컴퓨터 등등 여러 단어들이 연관되어 있죠.
AI 인공지능은 완벽하다고 생각하시나요?
이 주제에 대해서는 학계에서도 계속해서 논의가 되고 있지요.
이 책에서는 인공지능도 완벽하지 않다는 것을 보여주고 또 그것을 보완하기 위해 어떤 방법이 필요한지에 대해 얘기하고 있습니다.
 
책에서 예를 들어 설명한 것은 적대적 공격을 통해 AI의 이미지 인식을 방해하는 방법입니다.
사람이 보기에는 별로 문제가 될 것 없는 일종의 마크 같은 것들을 이미지에 심어서 AI에게 의도적으로 오류를 도출하게 만드는 것이지요.
 
링크에 나오는 내용은 STOP 표지만 이지만 특정 영역에 스티커를 붙여 AI가 STOP으로 인식하지 못하는 이미지 오류에 대해 설명하고 있습니다.
이런 이미지가 도로표지만에 실제 있다면 자동차에 탑재된 AI는 저걸 다르게 해석해서 멈추지 않고 직진을 하게 되겠죠.
그렇게 되면 인명사고까지도 만들어질 수 있는 위험한 상황이 벌어질 수 있게 됩니다.
 
AI가 점점 더 발전하고 많은 판단을 AI가 하게 되면서부터 이런 문제에 대해 대비해야 하는 상황이 만들어지고 있습니다.
이러한 문제를 해결하기 위해서는 여러 방향의 접근법을 통해 시도를 해야 하고 장기적으로는 모델의 개선을 통해 이러한 위협에 대해 대응하여 적대적 공격도 회피할 수 있는 AI가 구현되도록 노력해야 합니다.
명확하게 인지하고 제대로 처리할 수 있도록 돕는거죠.
 
결국 AI가 점점 더 발전하고 연구자들이 이런 적대적 공격에 대한 대응방법을 찾아내고 인간의 뇌와 더 비슷하게 논리를 만들어낼 수 있도록 모델을 개선하는 노력을 한다면 이런 공격을 할 수 없는 날이 도래하겠지요.
 
저는 단순한 사례와 방어법의 개략적인 내용을 설명했지만, 책에는 기술적으로 막아낼 수 있도록 어떻게 구현하는지에 대한 내용이 담겨있습니다.
AI 모델을 개발하시는 분이나 해당 모델을 가지고 시스템에 반영하시는 분들에게는 도움이 될 수 있겠네요.
 
책은 [링크]에서 구매하실 수 있습니다.
이 리뷰는 한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.

다운로드 복사본.jpg

 

최근들어 나오는 IT 관련 책들의 동향은 당연 인공지능에 관련한 내용들이다. 아쉽게도 책들은 어떻게 인공지능에 관련한 학습을 하는지 어떤 개발을 해야하는지, 어떤 프레임워크를 써야하는지에 대한 내용이 대부분이다. 사실 나 조차도 어떻게 학습을 해야하는지에 대해 궁금증이 컸지 이 학습에 대해 절대적인 믿음이 컸던 것 같다. 이 책을 본 후론 인공지능 학습도 결국은 보안에 취약 할 수 있으며, 인공지능이 절대적인 학습이 아니라는 생각을 일깨워 줬다. 아쉽게도 이책의 내용은 초심자가 보기에는 쉽지 않지만, 초반에 대략적인 인공지능 학습에 대한 설명이 포함돼 있고, 이러한 학습을 통해 보안적인 이슈도 다시금 생각할수 있도록 도와줬다. 아직 이 분야에 대해 많은 얘기가 없어 많은 내용을 포함하고 있지 않지만, 이 책을 통해 앞으로도 인공지능 학습에 보안적인 부분을 신경 쓸 수있는 시발점이 될 것이다.



  "한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다."

본 책은 인공지능을 속이는 기술을 시작으로 책을 소개하고 있습니다. 보통 적대적 입력이라고 하면 GAN 적대적 신경망, Generative Adversarial Network에 관한 내용으로 잘 알려있습니다. 본 책은 심층 신경망 Deep Neural Network에 대하여 자세하게 다루어지고 있습니다. 즉 여러가지 도메인 이미지, 오디오, 자연어처리등에서 쓰이는 심층 신경망에 대하여 자세하게 다루고 있습니다.


본 책에서 머신러닝 모델을 훈련시키는 방법은 4가지로 나누어지고 있습니다.

머신러닝 모델 훈련에서 다양한 방법들이 있습니다.

1) 지도학습

머신러닝 모델은 라벨이 지정된 데이터셋을 사용하여 훈련을 합니다. 입력된 데이터를 기반으로 예상답변을 만들어냅니다.

2) 비지도 학습

라벨이 없는 데이터셋에서 패턴을 발견하고 머신러닝 모델을 훈련시킵니다. 이 알고리즘은 훈련 중에 '답변'을 표시하지 않고 데이터에 패턴을 설정합니다.

3) 반지도 학습

라벨이 부분적으로 지정된 훈련 데이터를 이용하는 학습 방법입니다.

4) 강화학습

모델 스스로 더 높은 점수를 얻기 위해 시스템을 지속적으로 테스트하며 새로운 모델을 만듭니다. 강화학습은 훈련 데이터 셋을 사용하지는 않지만 주어진 '환경'과의 상호작용을 통해 학습합니다.


책에서 언급하는 적대적 입력은 다소 저에게 신선하게 다가왔습니다.

'적대적 사례'라는 용어는 신경망을 '성공적으로' 속여서 인간이 부정확하다고 생각하는 예측을 생성하는 입력을 의미하게 됩니다.

본 책에서는 소프트웨어 고유의 복잡성과 끊임없이 진화하는 멀웨어 특성으로 인해 위협을 나타낼 수 있는 소프트웨어의 특징을 명확하게 표현할 수 없으므로 멀웨어 검출에 신경망을 적용하는 일에 관심이 커지고 있습니다. 적대적 입력이라는 용어는 멀웨어 방지 소프트웨어가 머신러닝으로 구현할 때 멀웨어를 정의하는데 사용하기도 합니다. 즉 머신러닝 모델이 잘못된 '양성' 결과를 반환하도록 멀웨어가 입력되기 때문에 이는 논리적 정의이기도 합니다.

마지막으로 좋은 책 제공과 기회를 주신 한빛미디어 담당자 분들께 감사 드립니다. 1월에도 내용이 탄탄한 도서를 읽고 빨리 리뷰를 남기고 싶습니다.

#나는리뷰어다 #인공지능을속이는기술 #안전한인공지능시스템 #딥러닝

 

1.jpg

 

 

책 겉표지에도 나와 있듯이 적대적 공격에 속지 않는 심층 신경망 만들기를 주제로 내용을 싣고 있다.

 

내가 이해한 바로는 컴퓨터에도 악성코드를 넣을 수 있듯이 그럴싸한 입력 값을 주었을 때 인공지능이 공격자가 원하는 출력을 낼 수 있음과 그런 행위를 방어하는 방법을 다루었다. 개요는 아래와 같다.

 

1부 인공지능을 속이는 기술: 적대적 입력과 공격 동기를 소개하고 이미지와 오디오 데어터 처리를 위한 딥러닝의 기본 개념을 설명한다.

 

2부 적대적 입력 생성하기: 적대적 입력과 적대적 입력을 생성하는 방법을 구체적으로 설명한다.

 

3부 실제 위협하기: 2부에서 설명한 방법을 기반으로 공격자가 실제 세계에서 사용하는 공격 방법과 이떄 마주하는 어려움을 알아봅니다.

 

4부 방버: 3부의 내용을 기반으로 적대적 입력을 방어하는 방법을 알아봅니다.

 

23p에서 적대적 입력이란 무엇인가에 대해 명확하고 간략한 예시가 씌여있다.

 

이미지 처리 분야에서 말하는 '적대적 입력'의 개념은 인공지능에서 발생하는 착시 현상을 말합니다. 고양이 사진에 있는 픽셀을 일부 변형하면 인공지능은 '고양이 사진'을 '개'로 분류합니다. '개'라고 인식할 수 있는 변화를 넣어줌으로써 적대적 이미지를 생성하는 것입니다. 도로 표지판을 예로 들면 적대적 입력은 낙서로 보일 수도 있지만 자율 주행차가 표지판을 잘못 해석하도록 하는 표시가 될 수도 있습니다. 더 나아가 오디오로 확장해보면 음식 인식 시스템이 잘못 해석하도록 음성 내에 사람에게는 들리지 않는 적대적 명령을 포함할 수도 있습니다.

 

25p에서 적대적 섭동이란 무엇인가에 대해 씌여있다. 원본 이미지를 정교하게 계산한 후 각 픽셀을 조금씩 변경해 생성한 적대적 이미지입니다. 이것을 '섭동 공격'이라고 부릅니다. 전반적인 효과는 인간의 눈에 띄지 않거나 눈감아줄 정도로 매우 작습니다. 섭동은 무작위로 나타날 수 있지만 실상은 결코 그렇지 않습니다. 즉 각 픽셀은 필요한 결과를 얻기 위해 정교하게 조작된 것입니다.

 

 

2.jpg

 

 

적대적 입력의 원리에서는 돌출 수학(Saliency Mathematics)라고 부르는 입력에 대한 출력의 편미분을 고려해 추정한 값을 사용합니다. 개념적으로 이것은 이미지가 j의 예측 지도에 있는 지점에서 픽셀 i에 해당하는 차수의 그레이디언트입니다. 

 

 

3.jpg

 

 

적대적 섭동을 생성하는 방법을 설명하는 내용이 핵심이라 볼 수 있는데 FGSM, JSMA, C&W의 수식과 제한된 블랙박스 방법, 점수 기반 블랙박스의 방법을 소개하고 있다.

 

적대적 공격과 심층 신경망에 대해 관심있는 독자분께 이 책을 추천드린다.

KakaoTalk_20201221_093701435.jpg

 

 

[본 리뷰는 도서를 제공받아 작성 한 리뷰입니다]

 

 사실 인공신경망의 보안 상 문제에 대해 다루는 책은 커녕, 해당 문제를 인지하고 있는 사람도 거의 없는 현 상황에서 이와같은 도서는 정말 가뭄의 단비 같다고 생각한다.

 국가에서 진행하는 전문 교육 프로그램에서 여러 교육을 받아보았지만, 인공지능 시스템의 취약점에 대해 공부하고, 관련 논문을 살펴보았을 뿐, 근본적인 해결 방법을 다룰 기회는 없었던 것 같은데, 이렇게 책에서 만나 볼 수 있어서 굉장히 좋았다.

 하지만, 이 책이 다루는 범위가 굉장히 좁다는 사실을 부정할 수 없을 것 같다. 목차만 보더라도 알 수 있겠지만, 이 책은 인공지능 시스템을 속이는 행위에 대해 집중하여 다루고 있으며, 학습 데이터를 추출하거나 신경망 구조를 복제하는 것과 같은 또다른 심각한 문제에 대해서는 다루지 못 하도 있다는 사실이 안타깝다.

 하지만, 누군가가 인공지능 시스템을 구축하여 서비스에 사용하고 싶다고 말한다면 본인은 꼭 이 책을 추천할 것이다. 가격 만큼의 가치, 아니 가격보다 더 큰 가치를 지닌 책이라 생각한다.

 

이 책은 인공지능 시스템의 취약점이 존재하며 이에 대한 개선책을 강구하는 방법을 소개한다. 입력데이터에 적대적 입력이나, 패치 ,섭동을 통해 신경망에 교란을 일으키고, 

원하는 출력이 생성되도록 유도할 수 있음을 보여준다.  조그마한 섭동이  미래의 인공지능 시스템에 커다란 장애를 일으킬 수도 있다는 점을 시사한다. 

적대적 입력을 생성하기 위한 방법으로 화이트 박스기법으로서  FGSM, 적대적 돌출 기법을 소개한다. 

이에 대한 방어책으로서 적대적 훈련, OoD 감지, 무작위 드롭아웃 불확실성 측정, 전처리 기법을 소개한다. 

이러한 방어기술을 잘 활용하여 견고한 인공지능 시스템을 구축하는데 기여했으면 한다. 

 

견고한1.jpg

 

견고한2.jpg

 

견고한3.jpg

 

논문 제목과 같은 이 "안전한 인공지능 시스템을 위한 심층 신경망 강화"라는 책은 인공지능, 오디오, 이미지에 대한 인간의 인식, 정보 보안 등의 내용을 다룬다.

심층 신경망은 이미지 처리, 음성 인식, 텍스트 이해와 같은 작업에서 인간의 능력을 모방할 수 있으며 때로는 능가한다. 여기서는 이 신경망을 속이는 방법과 그러한 속임수에 대비해 우리가 무엇을 준비해야 하는지, 무엇을 할 수 있는지를 배울 수 있다.

이 책은 총 4개 부, 11개 장으로 나뉘어져 있다.

각 부는 아래와 같은 주제를 다루고 있다.

1부 인공지능을 속이는 기술

2부 적대적 입력 생성하기

3부 실제 위협 이해하기

4부 방어

심층 신경망이라고 하면 어려운 분야라 이 책이 다소 어렵게 느껴질 수 있지만, 심층 신경망을 잘 모르더라도 이 책에서 심층 신경망의 기본 개념을 상히 세다루고 있고, 수학을 잘 모르더라도 잘 이해할 수 있도록 설명되어 있다.

또한 예제 코드도 있어서, 설명된 개념을 실습해보면서 이해하기가 수월하다.

이 책은 심층 신경망을 개발하는 데이터 과학자에게 있어서 적대적 입력에 맞서 심층 신경망을 더 견고하게 만드는 방법을 소상하게 알려준다. 또한 인공 인식과 생물학적 인식의 차이가 궁금한 독자에게 궁금증을 해결할 수 있도록 해준다.

KakaoTalk_20201220_215755442.jpg

저는 어렸을때부터 인공지능에 대해 관심이 많았지만 정작 직접적으로 접하는것은 이책을 리뷰하면서 처음 접해보았습니다.

제가 이 책을 선택한 이유는 이 책이 인공지능에 대해 제작하는 책은 아니지만 현재 정보화시대에 인공지능이 가져야할 기능들에 대해 나와있어 인공지능 프로그래밍을 기본적으로 학습한 사람이라도 알아야 하는 필수 도서라고 생각해서 이 책을 선택하였습니다.

 

이 책의 특성은 현재같은 정보화시대에서 인공지능이 가져야하는 필수 판단 기능들을 알려주고 실습할수 있게 해주는 점입니다. 또한 실제 위협 유형들과 그것을 방어할수 있는 방법을 알려주어 인공지능을 활용한 정보방어를 할수 있게 학습할 수 있는점입니다.

 

요즘 대기업에서는 A.I IoT를 위해 머신러닝에 대해 개발을 추진하는 추세입니다. 딥러닝이란 기술은 인간의 뇌구조를 묘사한 뉴럴 네트웍에 기반한 기술이고 굉장히 다양한 일들을 하고 있는데 예전에는 단순히 로봇에 학습을 시켜서 사람을 따라하게 만들었지만 이제는 로봇뿐만 아니라 스피커, 청소기등등이 자신들이 가지고 있는 학습 데이터에 기반해서 판단을 내리고 행동하는 초연결시대로 나아가기 위한 기술이기 때문입니다. 그래서 구글, 삼성같은 IT관련 대기업들은 이미 머신러닝에 관련돈 기술자들을 교육해서 키워내는등 첫번째 선두로 등장하기 위해 엄청난 경쟁을 벌이고 있을 정도로 21세기의 핵심 기술중 하나입니다. 또한 정보화시대에 자신의 중요정보를 보호하기 위한 기술에서 인공지능을 활용하는 사례까 점차 늘어나고 있는 추세이며 이 또한 21세기의 핵심 기술중 하나입니다.

 

구성

Chapter 1: 소개

Chapter 2: 공격 동기

Chapter 3: 심층 신경망

Chapter 4: 이미지, 오디오, 영상을 처리하는 심층 신경망

Chapter 5: 적대적 입력의 원리

Chapter 6: 적대적 섭동을 생성하는 방법

Chapter 7: 시스템에 사용하는 공격 패턴

Chapter 8: 물리적 공격

Chapter 9: 모델 견고성 평가

Chapter 10: 방어

Chapter 11: 미래 동향: 속지 않는 견고한 인공지능

 

파트별로 나누어 봤을때 책에서 나와있는 것처럼 1~4장은 인공지능이 처리하는 데이터유형에 따른 심층 신경망과 공격동기에 대해 설명하고 있고 5, 6장은 적대적 입력의 원리와 적대적 입력 유형에 대해 7, 8장은 실제 위협 패턴(물리적, 시스템적)에 대해 9~11장은 위협 패턴에 따른 방어방법과 앞으로 사용될거라 예상되는 방어 방법에 대해 설명하고 있습니다.

 

개인적인 생각으로 학습은 인공지능, 머신러닝, 딥러닝을 1부터 시작해야하는 초보자이신 분들께서는 일단은 인공지능에 대해 기본적인 지식을 학습하신 후에 1장부터 시작하시면 좋을것 같고 어느정도 경험이 있으신 분들(인공지능, 머신러닝, 딥러닝에 대해 기초적인 지식은 숙지하고 있다.)은 2장, 3-3부터 그리고 현재 지식이 어느정도 풍부하시거나 현직에서 인공지능에 대해 프로그래밍 해보셨거나 머신러닝, 딥러닝을 다뤄보신 분들도 2장, 3-3부터 학습하시는 것이 좋을것 같습니다.

그리고 초보자분들은 이 책을 학습하시기전에 인공지능, 머신러닝, 딥러닝에 관한 책들을 필수적으로 한번쯤 읽어보신후에 학습하시는 것을 강하게 추천드립니다. 기초적인 지식없이 시작하시면 이해하시는데 어려움이 많을것 같습니다. 그러니 개념과 프로그래밍 방법에 대해 기본적이나마라도 학습하시고 보시기 바랍니다.

 

그리고 개인적으로 약간의 단점이 프로그래밍 테스트 실습을 할 수 있는 기본적인 인공지능 프로그램이나 인공지능 프로그램을 코딩하는 방법이 있었으면 좋았을것 같습니다. 대부분 기능부분으로 구성되어 있어 초심자가 접하기에는 좀 난해한 면이 있는것 같습니다.

 

우리는 아직 활발한 전성기는 아니더라도 다양한 시도가 벌어지고 있는 인공지능 도입기에 살고 있다고 생각한다. 인공지능이 바둑계를 평정한 후, 뭐 별로 바뀐 게 없는데 무슨 소리냐 할 수 있지만, 인공지능은 뒤편에 숨어 다양한 분야를 종횡무진 활약을 하고 있다.

 

그런데 인간을 능가하고, 완벽할 거 같은 인공지능이라고 해도, 이름 그대로 인공으로 사람의 지능을 모방한 것이다 보니, 분명히 약점도 존재한다. 우리 속담에 '콩 심은 데 콩 나고, 팥 심은 데 팥 난다'는 말처럼 인공지능이 어떤 데이터로 학습했는 가에 따라 완전히 다른 결과를 보일 수 있다. MS의 테이 챗봇은 잘못된 학습으로 인종 차별, 여성 혐오 등의 발언을 했고, 아마존 직원 채용 AI는 여성을 차별했다. 인공지능 알고리즘 자체의 문제로 제대로 이미지, 사운드 인식을 하지 못하는 착시현상과 같은 허점도 발견되고 있다. 이런 문제는 단순 실수로 여길 수도 있으나, 이것을 악용하려는 범죄자가 있다면, 심각한 문제를 초래할 수 있다는 것이다. 교통 표지판에 붙어 있는 몇 개의 스티커가 교통사고를 야기할 수 있고, 잘못된 사진 분류로 범죄자가 될 수도 있다.

 

그렇기 때문에 안정한 인공지능 시스템 구축을 위해 신경망을 속이는 의도적인 공격을 걸러내야 하고, 미흡한 알고리즘을 보완할 필요가 있는 것이다. '안전한 인공지능 시스템을 위한 심층 신경망 강화'는 이러한 주제를 다룬 책이다. 좀 더 쉽게 말하면, 인공지능이 사기에 안 당하는 방법을 담은 책인 것이다. 주제가 이 분야에서 많이 다루지 않는 독특한 내용이라 관심을 가지고 봤다.

 

이 책은 4파트로 나눠, 인공지능을 속이는 기술, 적대적 입력 생성하기, 실제 위협 이해하기, 방어라는 주제로 구성되어 있고, 인공지능을 방해하는 요소들을 알아가며, 실제 인공지능 코딩도 해보고 적대적 섭동도 만들어 실험해보고, 최종적으로는 속지 않는 견고한 인공지능 구축 방법을 익히게 한다.

 

 

 

그런데 솔직히 이 책을 보기 전에는 이렇게 인공지능이 손쉽게 공격을 당할 수 있을 거라곤 생각도 못했다. 파트 1에는 인공지능을 속이는 다양한 기술의 예가 나오는데, 이상한 노이즈 추가로 인해 여러 사진이 타조로 분류되고, 코알라가 양배추가 되기도 한다. 음성도 살짝 사운드가 추가되었을 뿐인데, 전혀 다른 소리로 인식한다. 스티커 하나 추가로 바나나가 토스터가 되기도 한다. 이는 마음만 먹으면 얼마든지 검열과 같은 필터링을 우회할 수 있다는 소리가 되는 것이다. 가끔씩 TV 앞에 둔 스마트폰 음성 비서가 저절로 작동되는 것도 이런 문제 중에 하나라 생각된다.

 

이런 적대적 머신러닝에는 회피 공격, 중독 공격, 리버스 엔지니어링과 같은 유형이 있는데, 여기서는 회피 공격을 위주로 다루고, 지도 학습을 기반한 시각과 청각의 디지털 정보를 처리하는 심층 신경망 모델을 중점으로 여러 가지 방법을 다양하게 알아보고 있다.

 

 

 

책을 슬쩍 떠들어 보면, 회피 공격, 섭동, DNN 등 낯설은 용어와 이상한 그래프, 각종 수학 공식 때문에 무척 어려워 보일 수 있으나, 설명이 잘 되어 있어, 첫 파트부터 차근차근 읽어 나간다면, 그리 어려운 책이 아니라는 것을 알 수 있을 것이다. 이해를 돕기 위해, 추가 설명과 NOTE가 곳곳에 등장한다. 다만 책에서 실습을 위해 파이썬과 텐서플로, 케라스를 사용하고 있으므로 이에 대한 기본적인 지식은 미리 갖추고 있어야 한다.

 

 

 

마지막 파트에서는 각종 공격에 대한 방어 방법을 다룬다. 그레이디언트 마스킹, 적대적 훈련, OoD 감지 등 여러 가지 것들을 코딩과 함께 알아보며, 방어 도구에 대해서도 간단히 소개하고 있다. 다양한 방법이 시도되고 있으나, 아직 적대적 입력을 완벽히 막는 방법은 없는 거 같다. 현재 연구 방향은 보다 복합적으로 생물학적 지능과 닮아지는 쪽으로 하고 있다고 한다. 

 

세상은 확실히 빛과 어둠이 동시에 존재한다. 한쪽은 좋은 쪽으로 또 다른 한쪽은 나쁜 쪽으로 발전하고 머리를 쓰고 있다. 악은 빈틈이 있으면, 그곳을 집요하게 파고든다. '안전한 인공지능 시스템을 위한 심층 신경망 강화'는 그런 빈틈을 어떻게 막아야 할지 방법을 알려주는 책이다.

 

인공지능의 새로운 면을 볼 수 있어, 개인적으로 재미있는 책이었다. 인공지능에 관심 있거나, 보안에 관심 있는 분들 모두가 한 번쯤 읽어보면, 좀 더 안전하고 완벽한 인공지능 시스템을 구축하는데 여러 가지로 도움이 될 것이다.

[들어가며]

 

'안전한 인공지능 시스템?'

 

일단 이 말이 무슨 말인지 잘 모르겠더랬다. 

 

테슬라 같은 자율주행 자동차의 

인공지능 인식 장애 사고에 대한 이야기인가?

 

책을 열어서 살펴보니 내 생각과는 좀 달랐다. 

 

이 책은 인공지능에 사용되는 

한 가지 주요 기술인 심층 신경망(DNN)을 

어떻게 의도적으로 속일 수 있으며, 

그것을 또 어떻게 방어하는지에 대한 이야기였다. 

 

[내용]

 

1부는 이미지와 오디오 데이터 처리를 위한 

딥러닝의 기본 개념부터 시작한다. 

 

인공지능에 대한 배경지식이 거의 없는 

사람들도 쉽게 이해할 수 있도록 

기초 개념부터 차근차근 제시한다.

(인공지능 초보자인 독자는 

나 빼고는 거의 없을 것 같지만 말이다.)

 

2부/3부는 심층신경망에 대한 적대적 입력과 

이를 생성하는 방법을 구체적으로 설명한다.

 

공격자가 실제 세계에서 사용하는 공격 방법과 

이때 마주하는 어려움에 대한 이야기이다. 

 

인공지능이 악용되는 상황을 고려해 

야기되는 적대적 입력의 동기와 위험성을 알아본다.

 

4부는 적대적 입력을 방어하는 방법이 제시되어 있다. 

인공지능 시스템을 어떻게 더 견고하게 만들 수 있는 

제시한 아이디어는 상당히 흥미로웠다. 

 

[편집]

 

편안한 마음으로 침대에서 읽기에도 

부족함이 없는 가벼운 책이다. 

 

세련되고 깔끔한 편집에 

좋은 종이 질을 자랑하며 

한글 번역도 매끄럽다. 

 

책 본문도 올컬러로 제작되어

한눈에 잘 들어온다. 

 

[소감]

 

이 책은 IT 프로그래밍 도서라기보다는 

인공지능, 시각적 인식론, 정보 보안 등에 대한

통합적인 시각을 제시하는 교과서에 가깝다. 

 

코드가 없는 것은 아니지만, 

실무 프로그래밍 스킬의 제시가 아니라 

인공지능의 보안 위협과 대처 방안에 대한

개념 이해를 목적으로 보여주는 느낌이다. 

 

이해 못 하는 수식이 잔뜩 쓰여있는 

인공지능 고급 활용서일 거라고 지레짐작했던 

내 두려움과는 달리,

난이도가 그렇게 높은 책은 아니었다.

 

오히려 딥러닝에 익숙하지 않은 초보자들도 

의외로 직관적으로 이해할 수 있는 내용이

많이 포함되어 있었다. 

 

인공지능은 어느새 IT의 모든 분야에 

자연스럽게 침투하고 있으며,

마치 전기와 같이, 가까운 미래에

일상생활에서 뺴놓을 수 없는 

중요한 기반 기술이 될 것이다. 

 

인공지능을 실제 제품/업무에 적용하기 위해 

앱/웹 제작 시 사용되는 

딥러닝 모델의 잠재적 위험성과

보안 위협에 대한 대처 방안을 고려해야 한다는 

개념 하나만 확실히 잡아도 

도서 구매 비용을 투자할 가치는 있겠다. 

 

우리가 빠르고 안전할 것으로 예상하는 인공지능 모델이

의도적이며 정교한 공격으로 

어처구니없는 문제가 생길 수도 있다는 사실이 

익숙하지 않은 사람은 

꼭 읽어볼 필요가 있는 책이다. 

 

1

이 책을 처음 선택할 때 ‘안전한’이란 단어가 ‘코드’를 잘 만든어서 안전하게 한다는고 생각했는데, 경기도 오산이었다. ‘안전한’이란 인공지능 모델 자체의 안정성을 확보하는데 중점을 둔다는 것으로, 모델의 안전성을 확보하고 높이기 위해서 어떤 어떻게 해야하는지 설명한다. 예를 들어, 이미지나 음성에서 발생하는 다양한 문제를 어떻게 대처할 수 있으며, 이러한 데이터를 사용해서 모델의 성능을 개선하고 안전하게 학습하는지 도움이 되는 이론과 방법을 소개한다.

2

요즘은 ***으로 시작하는 머신러닝과 같은 책이 다양하게 출판되었고, 심지어 YouTube나 블로그등에 많은 기사를 접할 수 있다. PyTorch와 Scikit-learn을 필두로 우리의 슈퍼스타 Tensorflow 등을 기반으로 다양한 책과 기사가 출판되었고, 이제는 어떤 책으로 시작할지 걱정해야 할 정도가 되었다. 대부분의 교재나 출판물은 *** 머신러닝 시작하기를 기반으로 다양한 알고리즘을 설명하는 것이 대부분이다.

하지만, 이 책은 방향성이 전혀 다르다. “전혀”라는 단어에서 알 수 있듯이 이 교재는 그 흔한 딥러닝 모델을 “구현”하고 “평가”하는 것을 다루지 않는다. 이 책은 딥러닝 모델의 안전성(혹은 강건성)에 대한 “이론”적인 내용을 다루는 교재다. 심지어 교재에서 다르는 예제가 ‘Fashion-MNIST’가 대부분이라서 많은 분들이 딥러닝의 심화버전을 생각했다면 실망하겠지만, 어쩌면 새로운 도전이 될 것이다.

예제와 코드

3

머신러닝 초보자가 보기엔 조금 부담스러운 책일 수 있지만, 머신러닝을 배우고 해당 분야에서 다양한 경험이나 이론을 배워보고 싶은 분들에게 적합하다. 초급 알고리즘을 배웠다면 충분히 도전해볼만하다. 교재에서 다루는 예시가 매우 제한적이라는 점이 단점이라 생각했는데, 책을 다 읽어보니 장점이었다. 모델을 안전하게 하는 이론과 방법만 다루기 때문에 제한적인 예제 덕분에 난이도가 대폭 낮아졌기 때문이다. 초급자가 다루긴 어렵지만, 다음 단계를 고민하는 분들에게 좋은 도전 과제가 될 것이라 생각한다.

책표지!

4

머신러닝 초급 그 다음을 고민한다면 이 교재는 좋은 선택이 될 것이다.

 우리 삶속을 살펴보면 인공지능 기술들이 접목된 것들이 많이 보인다. 길을 지나가다 봐도, 다 인공지능과 관련 기술들을 선전하고, 사람들은 거기에 매력을 느끼는 것 같다. 문제는 너무 이런 경향이 심해져서, 심지어는 인공지능 기술에 맹신하는 의견들도 있다는 것이다. 

 

그림 1. 인공신경망의 잘못 인식된 예

 

 위의 예시는 Berkeley BAIR에서 제시한, physical adversarial example의 예시다. 단순하게만 보면 그냥 표지판을 병이라고 잘못 인식한 것이라고 생각할 수 있겠지만, 만약 자율주행을 목적으로 학습된 인공지능 모델이 이런 표지판을 위와 같이 잘못 인식했다면 어떤 결과가 나올까? 대부분이 예상할 수도 있겠지만, 멈추지 않고, 그냥 병이라고 생각하고 지나칠 것이다. 사람이라도 그 경로상에 놓여있으면 위험한 상황까지 초래할 수 있다. 이렇듯 인공지능이 실제 생활속으로 접목되기 위해서 안전, 보안적인 요소까지 고려해야 된다.

 

 

이번에 소개할 책은 뭔가 딥러닝 모델을 구현하고, 실습해보는 여타 인공서적과는 다르게 앞에서 언급한 딥러닝의 안전성과 강건성(robustness)에 대해서 이론적으로 언급된 책이다. 그래서 책을 딱 펴고 읽다보면, "이게 진짜 딥러닝 책 맞아?" 하는 생각을 잠시 가져볼 수 있다. 물론 안에 이런 특성을 설명하기 위한 예시와 코드로 구현된 부분이 있긴 하지만, 책 내에서는 그렇게 큰 비중을 차지하지 않는다. 데이터도 딱하나 Fashion-MNIST만 가지고 설명한다. 

 대신 하나의 데이터셋만 가지고도 이 책의 제목이 의도했던 부분을 잘 설명하기에는 충분하였다. 사실 이 책을 읽기전까지만 해도 인공지능에서 사용되는 적대적(adversarial) 이란 개념은 요새 많이 언급되고 있는 GAN (Generative Adversarial Network)에서 주로 활용되는 줄만 알았지, 이렇게 모델 자체의 안정성을 강화시키는데 쓰인다고는 자세히 알지 못했다. 그런데 이 책에서는 흔히 알고 있는 데이터들 가지고도 학습된 모델이 어떤 맹점을 가지고, 이를 해결하기 위해 어떤 이론을 적용하면 좋을지를 논리적으로 기술하였다. 또한 많이 쓰이는 데이터 유형인 이미지나 음성 별로 문제가 발생할 부분이나 이에 대한 대처 방안을 소개한 부분은 해당 유형을 통해서 학습을 시키는 모델의 성능을 개선하는데 도움이 될 거라고 생각한다.

 다만, 책에 담고 있는 내용이 인공지능에 대한 기본적인 내용은 간략하게만 짚고 넘어가며, 이 책에서 다루고 했던 내용위주로 주로 기술되어 있기 때문에 처음 이 분야를 접하는 사람한테는 조금 어렵게 느껴질 수 있는 부분이고, 수많은 인공지능 분야 중 딱 안정성쪽에 초점을 맞추고 작성되어있기 때문에 분량이 그렇게 많지 않다.(책도 약 250p 정도로 인공지능 서적치고는 조금 얇은 편이다.) 예시도 생각보다는 적은 예시를 다루고 있어, 뭔가 실제로 이런 기술을 적용해보고 실습하려는 사람은 약간 생각한 것과 다름을 느낄 수 있을 것이다. 그런데 반대로 생각하면, 모델을 강화시키는데 핵심적인 내용과 이론만 딱 담겨져 있기 때문에, 원하는 부분만 발췌하려는 사람한테는 적당할 수도 있다. compact라는 단어가 이 책한테는 어울릴 것 같다. (추가로 각 이론적 배경별 reference도 잘 달려있어서, 추가로 더 논문을 살펴보고자 하는 사람한테는 도움이 될 부분이다.)

 글 제목에도 썼던 것처럼 이 책은 여타 책과는 다르게 딥러닝 구현에 대한 새로운 관점을 제시하는 부분이 있다고 생각한다. 그동안은 모델의 성능, 눈으로 보기에 현란한 기술들에만 초점을 맞췄지만, 앞으로는 그런 것들과 더불어 인공지능의 안정성에 대해서도 조금 고민을 해봐야할 때라고 생각한다. 사실 항성 믿어왔던 인공지능이 뭔가 필요한 상황에서 제대로 동작하지 않는다면, 오히려 그 위험을 알고 있을 때보다도 더 충격이 와닿을 수도 있다. 그런 관점에서 이 책은 뭔가 해결책까지 제공하지는 못하더라도, 안정성에 대해서 고려가 필요하다는 점과 이를 극복하기 위한 방안을 이론적으로 잘 설명한 책이라고 생각한다.

참고: 책에 다 담겨있지는 않지만, 원서 github에 가면 이런 이론 배경에 대해 실습한 예시들이 잘 소개되어 있다. 관심있으면 참고하면 좋을것 같다.

 

 

katywarr/strengthening-dnns

Code repository to accompany the O'Reilly book: "Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery" - katywarr/strengthening-dnns

github.com

 


출처: https://talkingaboutme.tistory.com/entry/Book-Strengthening-deep-neural-networks [자신에 대한 고찰]

결제하기
• 문화비 소득공제 가능
• 배송료 : 2,000원배송료란?

배송료 안내

  • 20,000원 이상 구매시 도서 배송 무료
  • 브론즈, 실버, 골드회원 무료배송
닫기

리뷰쓰기

닫기
* 상품명 :
안전한 인공지능 시스템을 위한 심층 신경망 강화
* 제목 :
* 별점평가
* 내용 :

* 리뷰 작성시 유의사항

글이나 이미지/사진 저작권 등 다른 사람의 권리를 침해하거나 명예를 훼손하는 게시물은 이용약관 및 관련법률에 의해 제재를 받을 수 있습니다.

1. 특히 뉴스/언론사 기사를 전문 또는 부분적으로 '허락없이' 갖고 와서는 안됩니다 (출처를 밝히는 경우에도 안됨).
2. 저작권자의 허락을 받지 않은 콘텐츠의 무단 사용은 저작권자의 권리를 침해하는 행위로, 이에 대한 법적 책임을 지게 될 수 있습니다.

오탈자 등록

닫기
* 도서명 :
안전한 인공지능 시스템을 위한 심층 신경망 강화
* 구분 :
* 상품 버전
종이책 PDF ePub
* 페이지 :
* 위치정보 :
* 내용 :

도서 인증

닫기
도서명*
안전한 인공지능 시스템을 위한 심층 신경망 강화
구입처*
구입일*
부가기호*
부가기호 안내

* 온라인 또는 오프라인 서점에서 구입한 도서를 인증하면 마일리지 500점을 드립니다.

* 도서인증은 일 3권, 월 10권, 년 50권으로 제한되며 절판도서, eBook 등 일부 도서는 인증이 제한됩니다.

* 구입하지 않고, 허위로 도서 인증을 한 것으로 판단되면 웹사이트 이용이 제한될 수 있습니다.

닫기

해당 상품을 장바구니에 담았습니다.이미 장바구니에 추가된 상품입니다.
장바구니로 이동하시겠습니까?

자료실

최근 본 상품1