ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 자율주행차와 짱이네
    카테고리 없음 2020. 2. 4. 07:00

    >


    >


    도덕적인 생각을 묻는 아주 유명한 질문을 해 본다. 자네는 브레이크가 동네 열차 기사야. 기차는 선로에서 작업 중인 인부 5명을 향해서 맹렬히 달리고 있다. 너로 달리면 인부 5명을 해치게 된다. 마침 너의 앞에는 선로 변경 스위치가 있지만 그 스위치를 누르면 인부 5명을 살릴 수 있지만 또 다른 선로에 있는 인부 한명을 해칠 수밖에 없다. 그럼 너는 스위치를 누를 셈이냐?이 질문을 묻는 설문의 연구에서 89Percent의 사람들이 스위치를 누르라고 답했습니다. 이번에는 질문을 바꿔보자. 그대는 기관사가 아니라 그 귀추를 지켜보고 있는 구경꾼입니다. 마침 자네 앞에는 몸집이 큰 사람이 있는데, 이 사람을 선로에 밀어내면 기차를 세울 수 있는데, 그 사람이 죽게 된다. 대신에 인부 5명을 살릴 수 있다. 자네라면 몸집이 큰 사람을 밀겠나?이 질문을 받은 사람들은 앞의 질문 때문에 감정에 휩싸인다. 다시 스토리화되어 윤리적 딜레마에 직면하게 된다. 두 질문은 <정의란 무엇인가>의 저자 마이클 샌델이 자주 인용해 널리 알려진 일명 트롤리 딜레마. 결론적으로 스토리는 두번째 질문에 대다수의 사람들(78Percent)은 깍지 않다고 대답했습니다."최대 다수의 최대 행복"이라는 공리주의적 관점에서 보면 2개의 질문에 사람들의 반응은 모순입니다.우리는 다수를 위해 소수가 희생해야 한다고 생각하지만 동시에 다수를 위한 명분이 소수를 희생해서는 안 된다고 생각하는 이율배반적인 존재다. 과연 그럴까.최근 뇌과학의 발달은 이러한 윤리적 딜레마에 대한 인간의 반응이 모순이 아니라는 증거를 제시하고 있습니다. 중국 송대의 유학자 조슈아 그린은 fMRI(기능성 자기 공명 영상)을 이용 칠로, 2가지 질문을 받은 사람들의 뇌 활동을 비교하는 실험을 실시했습니다.실험 결과를 보면 두 가지 질문에 반응하는 사람의 두뇌는 다른 것으로 나타났다. 첫 번째 질문처럼 스위치만 조작해 결정을 내릴 경우에는 이마엽(전두엽)이 활성화되는 사람이 많았는데, 이는 그 귀추에 대해 이성적 판단을 내렸다는 뜻이다. 그러나 2번째 질문처럼 누군가를 찍는 행동, 즉 적극적인 행위가 필요한 경우에는 편도체가 활성화하는 사람이 많았는데 이는 그 귀추에 대해서 정성적 판단을 합니다라는 뜻이다.해석하자면,인간이윤리적결단을내려야하는순간에는이성적판단과정서적판단사이에서적절한편을선택한다는뜻입니다. 따라서 트롤리 딜레마에 대한 인간의 반응은 모순되지 않는다. 조슈아 그린의 표범을 빌리면 인간의 이런 행동은 이중처리 방식의 도덕적 뇌를 가지고 있기 때문입니다.다만 이는 인간의 반응에 대한 증거를 제시했을 뿐 트롤리 딜레마에 대해 어떤 판단이 옳은지 사회적 합의에 도달한 것은 아니다. 만약 근로자 5명이 나의 가족이라면 어떻게 될까? 그래도 덩치 큰 사람을 밀지 않을까? 그 당시에는 누군가를 밀어서 가족을 돕는 것이 '정 스토리' 오히려 정서적 판단이 되지 않을까. 그렇다면 정서적 판단의 개입이 반드시 옳다고 할 수 있을까.지금까지 트롤리 딜레마는 대학의 정치 철학 강의나 시민을 위한 교양서적에서만 볼 수 있는 토론 주제였다. 이런 딜레마는 어디까지나 인간의 머릿속에서만 일어난 지적 유희였지 현실에서 일어나는 일은 정말 거의 없었다. 그런데 귀추가 바뀌어 스토리가 됐다.어느새 우리는 4차 산업 혁명을 맞았습니다. 목하 트롤리 딜레마는 인간 머릿속의 지적 유희가 아니라 개발자가 반드시 입력해야 하는 알고리즘이 돼 스토리가 됐다. 즉, 인간의 머릿속을 기리고 사물, 인공지능이 딜레마에 대한 판단을 내려야 하기 때문입니다. 예를 들어 자율주행차를 떠올려보자.


    >


    갑자기 브레이크가 동네 자율주행차가 있으면 대가족이 해보자. 그대로 달릴 경우 보행자 5명을 치게 되고 핸들을 꺾으면 보행자 한명을 치게 된다. 이 경우 자율주행차는 어떤 알고리즘을 가지고 있어야 하는가? 물론 인간의 이성적 판단과 동등하게 핸들을 꺾는 판단을 하는 알고리즘을 가져야 대다수 공감을 얻을 수 있을 것이다. 그런데 핸들을 꺾어서 다치는 사람이 보행자가 아니라 자동차 탑승자라면? 자율주행차는 보행자와 탑승자 사이에 누구를 보호해야 할까.이 질문은 2016년 6월 과학 학술지'사이언스'에 실린 논문과 관계 있다. 자율주행의 사회적 딜레마(The social dilemma of automous vehicles)라는 제목의 이 논문은 사람들에게 위와 같은 질문으로 설문조사를 했다. 이 설문 조사 연구에서 대다수의 사람들(78Percent)이 다수 보행자를 보호하기가 갈수록 더 윤리적이라고 답했다. 그러나 관심 있는 것은 앞으로의 질문이다.그럼 자동차 탑승자보다 보행자의 안전을 우선으로 하는 자율주행차를 구입합니까?눈치를 챘는지 모르겠지만 대부분의 사람들은 그런 차를 사지 않겠다고 대답했다. 이성적인 판단으로는 대다수 보행자가 우선인데, 그 자동차 탑승자가 나이고, 자기 가령은 대가족일 경우에는 으레 딜레마에 빠져 이야기를 들었다.그렇다면 자동차 연구들의 판단은 어떨까. 얼마 전 메르세데스벤츠 간부입니다원은 보행자보다 자동차 탑승자의 안전을 우선한다는 발언을 해 언론의 비판을 받았다. 내 연구 입장에서는 자연스러운 결론일지도 모르지만, 그러한 발언은 사회적 언쟁을 하나로 만들어 버린다. 당시 영국 신문 '데하나리 메하나(Daily Mail)'에서도 많은 기사를 실었다.메르세데스벤츠는 자율주행차가 방향을 바꿔 탑승자가 다칠 위험을 감수하기보다는 고생한다고 인정했다.비판은 있어도 대책이 없는 게 현실이다. 독일 연방교통부는 사건을 피할 수 없는 상황에서 자율주행차가 어떤 선택을 해야 옳은지 결정할 수 없다는 공식 입장을 밝힌 바 있다.자, 그렇다면 역시 당신에게 질문을 하면 자신을 던져본다. 이번에 당신은 자율주행차 개발자다. 위와 같은 상황에서 트롤리 딜레마가 발발한다면 당신은 어떤 판단을 내릴 것인가? 이제 당신에게는 머리 속에서만 일어나는 지적 유희가 허용되지 않는다. 개발자는 반드시 알고리즘으로 실행해야 하기 때문이다.결정하기 어려울 것이다 조슈아 그린이 증명한 이중처리 방식의 도덕적 뇌를 자율주행차에 그대로 이식한다고 해도 결론을 내릴 수 없을 것이다. 다시 말해 이성적 판단과 정서적 판단을 모드 동원하더라도 자율주행 알고리즘은 사회적 합의를 이끌어내기 어렵다. 다만 심증만 있을 뿐 자율주행차의 윤리적 딜레마를 연구하는 라판 MIT 교수가 한 얘기가 그 심증을 대변한다.사람들은 나를 희생하는 차를 사지 않지만 다른 사람들이 그런 차를 사줬으면 좋겠다고 소견한다.정의란 무엇인가


    >


    定義は開発者のアルゴリズムによって実装されない。 そんなに簡単な事故だったら、映画のようにバットマンがスーパーマンと戦うはずがなく、子供アンマンがキャプテンアメリカの胸ぐらをつかまなかったはずだ 彼らはすべて正義の味方をしたが、各自の信念によって"正義対正義"はいくらでも衝突することができる。トロリージレンマ本人の自動運転車のアルゴリズム思考も同様だ。 4次産業革命は人間の哲学的ジレンマを、世間の外に引き出してイェキアッダ。 しかし、そのジレンマは、どちらが正義だと簡単に定義することはできない。 定義付けできないアルゴリズムは一種のバグであり、バグを搭載した自動運転車は道路上を走ることができない。このような自動運転車の倫理的ジレンマを解決するため、MITのラ·ファン教授は"モラル·マシン"というプラットフォームを開発した。 これは様々なジレンマを設定し、各ジレンマに対して人々の意見を収れんするプラットフォームであった。このように様々なジレンマに対して定量化されたデータを導き出すことで社会的合意を導き出すための努力であった。 そのプラットフォームはおよそ2,600万個のトロリージレンマに対する判断を定量化させた。 そして搭乗者と歩行者の年齢、性別、人種及び行動の変化など、さまざまな変数を入れており、一0個の言語を用いて様々な国の400万人を対象にアンケート調査したデータを入力した。こうして作られた"モラルマシン"の大まかな結論は全てsoundと同じだった。 まず、搭乗者よりも歩行者の安全が優先された。 そして、成人より子どもを保護するという判断が多かった。 もしハンドルを切らなければならない場合は、交通法規を守る通行人よりは、無断横断歩行者を打つだろうと判断した。 そう本人のモラルマシンの判断にも相違点があった。 これを特定国に制限する場合、結果が異なるため本人になったという点だった。例えば、より多くの命を救う方向に判断するという回答が一般的なら、ドイツのような場合には交通法規を守る杏仁別名を避けて無断横断歩行者2人を打つという判断が高くボンインタした。 このような様相は様々なジレンマの中で多様に表れた。 결국 국솥마다 가장 정의로운 판단의 기준은 달랐다.정의의 노화는 도덕적 판단은 가치와 신념을 반영한다. 사람마다 다르며, 조금 더 범위를 넓히기 위해서는 국솥이나 문화에 따라 다를 수 있다. 심지어 요즘도 각 국마다 다르게 적용되는 규제와 법이 존재한다. 예를 들어 차량 앞에 설치하는 보조 범퍼가 그렇다. 이 보조 범퍼는 충돌로부터 탑승자를 보호하기 위해 만들었지만 반대로 보행자는 다칠 위험이 높다는 조사 결과도 있다. 이 보조 범퍼는 영국에서는 불법이지만, 미국에서는 합법이었다 자동차의 LED 라이트도 마찬가지여서 이는 매우 밝고 일석 운전할 때 좋지만 반대편 운전자는 눈부심이 생겨 위험하다. 이 LED의 전조등은 우리 본인 라에서는 불법이지만, Japan에서는 합법이었다 따라서 모럴 머신이 전 지구적인 자율주행차의 알고리즘을 개발한다고 해도 모든 나라에 똑같이 적용하는 것은 사실상 불가능할지도 모른다. 아마도 각 나라의 가마마다 자율주행차의 도덕적 판단 기준을 달리할 것이고, 그에 따라 국가 간의 다른 규제나 법안들이 불타는 생활일 가능성이 높다. 사실 국가 간 차이도 사고지만 더 심각한 것은 국내에서도 사회적 합의를 이끌어내기 어렵다는 점이었다.자율주행차의 가장 궁극적인 모습은 무인자동차다. 어쩌면 가까운 장래에 인간의 운전이 위험하다는 이유로 전면 금지하는 법안이 통과될지 모른다. 세계 보건 기구(WHO)에 따르면 매년 세계에는 일 25만명이 교통사 그리고 사망한다. 만약 자율 주행 차가 상용화되면 사망자가 0분 중 이하로 줄어들 것이라고 전문가들은 예상하고 있다. 이처럼 이상적인 자율주행 교통체계를 구축해 교통문제가 없는 세상을 꿈꾸지만 그 과정에서 택시운전사, 버스운전사, 트럭운전사 등은 일자리를 잃을 것이다.아마 많은 관계자들이 파업과 시위를 통해 자율주행차를 반대할지도 모른다.


    >


    어쩌면 자율주행의 발전은 개인 소유의 자가용에도 제약이 따를 것입니다. 그렇게 되면 도로 위 차량이 줄어 교통체증이 사라지고 주차장 부족 사건도 해결되겠지만 줄어든 차량일수록 누군가는 또 손해를 보게 된다. 주차장 상회, 통행료 업체, 카센터, 심지어 운전자 식당까지 많은 업체와 사람들은 이런 변화에 저항할 것입니다.뿐만 아니라 자율 주행 차량이 문재를 1우쿄쯔을 때 생성되는 법적인 사건도 골치 아픈 1이프니다니다. 그것은 탑승자의 잘못 1 아니면 제연구의 잘못 1? 고소를 해야 한다면 무엇을 고소해야 할까. 그리고, 보험 처리는 어떠해야 하는가. 최근까지 조사해 온 수많은 사건에 대해, 해결의 미리 계획을 모색하고 있지만, 감당하기 어려운 것이 현실입니다. 어쩌면 이런 사건들이 자율주행차 기술혁신의 발목을 잡고 있다고 봐야 한다.최근까지 테슬라 구글 우버 벤츠 도요타 등이 자율주행 기술을 선도하고 있다. 그러나 이들 대기업이 속한 정부를 보자. America, 독 1, 재팬이 자율 주행 차 상용화에 가장 먼저 가는 것 같지만 현실은 다양한 딜레마 속에서 사회적 합의를 도출하기까지 어려움을 겪고 있다.어쩌면 중앙 집권적인 행정부 1수록, 자율 주행 자동차의 딜레마를 해결하는 것이 가장 간단할 수 있다. 예컨대 오링이돔스미스이 말했다' 보이지 않는 손'보다 행정부 시장 개입이 많은 행정부라면 또는 택시 기사들이 시위를 벌 1수가 없는 트럭 운전사들이 파업하기 힘든 행정부라면 모든 법적 제도적, 철학적 난제를 최고 권력자의 의사 결정 한 방에 조용히 잠 재울 수 있는 그런 행정부. 만약 북한이 핵무기 개발을 포기하고 그만큼의 노력을 자율 주행 차에 들어가지 않는다면 세계에서 가장 먼저 자율 주행 차가 상용화된 행정부가 되지 않을까?공리주의가 옳으냐


    >


    서기 2018년 7월 하루 오전, 나쁘지 않아는 스마트 폰 안에 다음의 긴 인공 지능 빅스비(Bixby)에게도 매우 어려운 철학적 난제를 물어보기로 결심했습니다. 그것은 모든 인류가 한번쯤은 감정적으로 느꼈을 것이고 트롤리 딜레마만큼 아름답지 않아 대답하기 어려운 질문이다."빅스비, 엄마가 좋아, 아빠가 좋아?"그러자 빅스비가 대답했습니다.음 부모라는 좋은 단어가 있네요.맥이 빠진 엉뚱한 대답이다. 물론 후라는 추임새죠.새도 넣어 상당히 감정하고 있는 흔적이 엿보이기 시작했습니다. 어쩌면 인공지능에 인간의 감수성이 다음의 긴 정서적 판단을 기대하는 것은 불가능할지도 모른다.아마 인공지능은 공리주의를 내세울 것이다. "최대 다수의 최대 행복"이라는 공리주의는, 모든 판단에 있어서 계산 가능성을 전제로 할 것입니다. 그 계산이란 손해보다 이익이 많은지를 측정하는 것이다. 이런 이유로 공리주의는 도덕철학이라기보다는 도덕과학입니다.윤리적 판단 인적 증거를 비용-편익 분석만으로 이해하면 쉬워진다. 뿐만 아니라 4차 산업 혁명의 최초의 첨단 기술에 심어야 한다 도덕적 알고리즘을 적용하기에도 용이하다. 모든 사물을 통해 광범위한 데이터를 수집할 수 있는 빅 데이터 기술은 이런 공리주의적 판단에 수치화된 인적 증거를 제시할 수 있기 때문이다.보행자와 탑승자 중 어느 쪽을 활용하는 것이 이익인지 판단하고 어린이와 성인 중 어느 쪽을 활용하는 것이 이익인지를 판단할 것이다. 아랍인인지 미국인인지 인종을 구분하는 데이터 값이 있을지도 모르고, 유명인과 일반시민 중 어느 쪽을 활용하는 것이 이익이 높은지 수치화된 데이터를 제시할 수도 있을 것이다.2017년 8월 23일 세계 최초로 독일은 자율 주행 차에 대한 윤리 지침을 발표했습니다. 독일 연방 교통성 그리고 14명의 과학자와 법률 전문의로 구성된 '디지털 인프라 다우 무당 윤리 위원회'은 자율 주행 기술이 지켜야 할 20가지 지침을 만들었다.이 지침에서 주목해야 할 것은 인명에 대해 잘화된 지침은 불가능하다는 내용이다. 그것은 연령, 성별, 인종, 장유아에 대해 우선 순위를 판단해서는 안 된다는 것을 의미합니다. 다시 말해 아이를 살리기 위해 노인을 죽이는 것은 올바른 판단이 아니다. 이런 독일의 가이드라인은 인간의 존엄성에 대해 공리주의적 판단을 차단했다는 점에서 의미가 있었다. 다만 법적인 강제성은 없었다.한 가지 아쉬운 점은 트롤리 딜레마에 대해서도 판단을 유보했다는 점이다. 결국 방통위가 고심 끝에 내린 결론은 다음과 같다.차량 시스템은 인간의 결정에 따라야 한다.인간의 결정을 대신해야 할 자율주행차에게 인간의 결정에 따르라는 다소 어이없는 결론이지만 어쨌든 인간의 존엄성과 가치판단을 아직 기계로 양보할 수 없다는 의지의 표명으로 이해해야 할 것이다.공리주의는 쉽게 계산할 수 있다는 이점이 있다. 수치화된 데이터로 무장한 공리주의는 4차 산업 혁명에 깊이 관여할지도 모른다. 그러나 우리는 모든 가치가 비용-편익 분석만으로는 환원할 수 없다는 속내를 알고 있다. 알고 있지만, 자율주행 알고리즘에 들어갈 수 있을 정도로 증명되지 않았습니다. 철학과 하면 마치 19세기의 나쁘지 않고 20세기 정도에 그치는 느낌을 받기도 할 것입니다. 그만큼 철학이 발전하지 못한 것은 아닐까. 자율주행, 인공지능, 빅데이터가 확산되는 세계이지만 아직 우리는 아리스토텔레스에 나쁘지 않다, 벤더, 칸트, 롤스와 같은 고전독서 수준의 철학을 이야기합니다. 그런 철학자는 인공지능 빅스비와 대화한 경험도 없다.이는 그들이 남긴 철학적 유산을 4차 산업 혁명에 맞추어 발전시켜야 합니다. 가상현실과 증강현실이 인간사회에 미치는 영향을 탐구하고 사물인터넷과 빅데이터가 인권을 침해하는 것이 아니라 인권을 보호할 수 있도록 해야 하며, 로봇과 인공지능이 인간을 대체하는 것이 아니라 인간을 풍요롭게 해야 할 것입니다. 우리가 철학적 난제를 회피하면서 또는 윤리적 딜레마를 계산하기 쉬운 공리 주의에만 의존하면서 자율 주행 차와 4차 산업 혁명은 인간에게 재앙이 될 것이다.취한 영감을 준 자료 BOOK호모 제우스(미래사)/유발 하라리/김영사/2017.05.19BOOK, 선악/조슈아 그린/시공 회사/2017.02.20BOOK, 정의란 있는 사람?/마이클 샌델/와이즈 베리/2014.11.20SERICEO자율 주행 차가 바꾸는 한국의 도시/정 쿠민/2017.09.18


    전편을 보다


    >



    댓글

Designed by Tistory.