AI이후의 세계 : 인상깊은 문장/서평
AI 이후의 세계 : 네이버 도서
네이버 도서 상세정보를 제공합니다.
search.shopping.naver.com
AI이후의 세계라는 책을 꺼내 들었다. 내가 자의로 선택한 책은 아니고... 아버지께서 한번 읽어보라 해서 읽어본 책이다.
내가 기대한 것은 'AI 이후의 세계에서 어떤 일을 해야 할까?'라는 것이였다. 그러니까, 코드가 LLM에 의해 생성되고 새로운 단백질 구조가 ai를 통해 밝혀지는 세상, 자율주행자동차가 돌아다니는 세상, 대부분의 사람들의 하는 일이 크게 바뀔 세상에서 개개인은 무엇을 해야 살아남을 수 있을까라는 의문을 계속 가지고 있었고, 이 책이 그 의문을 어느정도 해소시켜주기를 원하면서 해당 책을 읽었다.
하지만, 이 책은 개개인의 미래보다는 인류 전체의, 혹은 국가 지도자로서 할만한 고민들을 하고 있다. 그도 그럴것이, 저자들은 나같은 소시민과는 다르게 사회 지도층들이다. 그래서 그들이 나누는 대화에서는 일개 소시민 보다는 인류의 방향, 혹은 국가들의 방향, 혹은 국가와 국가 간의 영향들을 고려해서 우리가 어떠한 방향으로 나아가야 하는지를 서술하고 있다.
AI기술의 영향력을 책 전체를 아울러서 강조하고 있는 책이고, 현재 내가 공부하고 연구하는 주제들도 언급되어서 나름 재밌게 읽었던 책이다. 기술적인 측면에서의 책이라기 보다는 일종의 철학적인, 그니까 AI의 세계에서 '인간성'을 강조하는 조금은 철학적인 책이다.
인상깊은 문장과 그에 대한 나의 생각들을 공유한다.
AI는 반추하지 못하고, 그러고 싶다는 윤리적 혹은 철학적 충동도 느끼지 않는다. 그저 제가 아는 기법을 이용해 결과를 산출할 뿐이고, 이는 인간의 관점에서 보았을때 온건하거나 악의적일 수 있다.
…
또 한편으로 AI의 편향성은 인간의 편향성을 그대로 반영한 결과일 수 있다. 다시 말해 훈련 데이터에 인간의 행동에 내재한 편향성이 투영됐을 때 AI에도 편향성이 생긴다.
comment
요즘 연구하는 분야가 인공지능에서의 편향제거와 fairness라서 특히 관심이 가는 구절이였다. 편향을 논의하기 전에는 fairness에 대해서 먼저 정의가 필요하다. 그런데, 연구에서 fairness를 정의하는 것 자체가 너무 어렵다고 느꼈다. 예를 들자면, fairness에서 가장 많이 등장하는 속성은 성별이다. 예전에 읽은 논문을 예로 들자면, 직업,나이, 결혼 여부,성별 등의 데이터를 이용하여 연봉을 예측하는 모델이 있었다. 성별을 제외한 모든 속성이 동일할때, 여자일때의 예측값과 남자일때의 예측값이 동일해야 ‘fair’한 모델이라고 정의한다. 그런데, 이 논문에서 사용한 훈련 데이터셋은 UCL adult income dataset이다. 이 데이터셋은 1996년 4월 미국에서 조사되었는데, 사실 이때는 지금과는 다르게 남녀가 다른 연봉을 받는 것이 ‘당연하게’여겨졌던 시대였다. 그러면 이 데이터를 기반으로 훈련된 모델이 남성의 수입을 더 높게 측정했다고 하여 unfair한 모델이라고 여기는 것이 맞을까?
fair의 정의는 시대에 따라서 달라진다. 지금은 모든 인간이 평등하다는 생각이 진리처럼 여겨지지만 200년 전만 하더라도 노예가 당연하게 여겨지는 시대였다. 지금 우리가 당하다고 생각하는 것들이 미래에는 굉장히 미개한 것으로 여겨질 수도 있는 것이다. ‘fair’하다는 것은 이처럼 인간의 주관적이고 시대적인 생각이 들어가게 된다.
‘기계는 거짓말을 하지 않는다’라는 말이 있다. AI는 반추하지 않는다. AI는 혐오를 하지 않는다. 그저 세상에 있는 데이터를 가져와 그대로 비출 뿐이다. 혐오가 있는 것은 인간 세상 그 자체일 뿐이다. 하지만 그렇다고 해서 세상에 있는 혐오를 그대로 투영하는 것이 옳다고는 전혀 볼 수 없다. 그에 맞는 논의가 필요하다. 기술이 발전하면 그에 따라서 윤리적인 논의도 함께 진행되어야 한다고 강조되는 것이 위와 같은 이유들 때문일 것이다.
외교관들은 문화 차이 떄문에 본의아니게 상대를 자극하는 일이 없도록 세심한 주의를 기울였고, 이런 문화적 민감도를 높이기 위해서는 언어훈련이 필수였다. 그런데 번역기는 이런 완충장치를 제거한다. 그래서 본의 아니게 상대를 자극할 수 있다. 자동 번역에 의존하는 사람들은 다른 문화와 국각를 이해하려는 노력을 줄의고 자기가 속한 문화의 렌즈로 세상을 보려는 본능에 더욱 충실해질 것인가?
아니면 타 문화에 관심이 더욱 깊어질 것인가? 각 사회의 문화,역사,감수성이 자동번역에 어떤 식으로든 반영될 것인가? 단언하긴 어렵다.
comment
이 책을 읽다보면 공통적으로 하는 말은 다음과 같다. ‘기술의 발전은 알 수 없으나 기술의 발전에 대한 사람의 행동은 더더욱 예측할 수 없다.’
아무리 파격적인 기술이라고 해도 기술은 기술일 뿐, 인간은 기술을 기상천외한 방법으로 사용하고 기술의 취약점을 찾는다. 평소 기술만 발전한다면 사람의 행동이야 기술에 맞춰서 따라온다고 생각했는데, 기술의 발전을 예측하는 것 보다, 사람의 행동을 예측하는 것이 더 중요하다고 느껴진다.
인공지능은 인간이 통제할 수 있는 도구다. 문제는 우리가 설정한 안전상의 제한을 누군가는 설정하지 않으리란 점이다. 이에 반응하고, 규제하고, 대처할 시간이 그리 많지 않다.
…
확장의 진짜 장애물은 정부가 만든 규제나 기술적 비호환성이다(종종 전자가 후자를 유발한다)
comment
기술의 발전과 그에 따른 규제는 항상 같이 오는 문제이다. 기술을 다루는 사람들은 규제로 인해 기술이 발전하지 못한다며 볼멘소리를 하고, 규제를 하는 사람들은 어쩔 수 없다는 입장이다. 이 입장은 좀처럼 좁혀지지 않는 경우가 많다.
보통 기술의 발전 속도와 규제의 강함은 반비례하는 경우가 많은데, 이 대표적인 예가 바로 중국이다. 중국은 초상권이 없으므로(물론 있을 수도 있겠지만..) 안면인식 분야에서는 중국이 압도적인 1위이다. 기술이 아무리 좋아도, 양질의 데이터를 때려박는 것 만큼 큰 차이를 만들기는 힘들기 때문이다. 의도야 어찌되었든, 중국은 규제라는 족쇄 없이 데이터를 맘껏 수집하며 AI안면인식 분야에서 기술격차를 넓혔다.
그렇다고 하여 중국의 접근이 잘했다는 것은 아니다. 중국 또한 요즘 무분별한 안면인식 기술 활용을 경계하며 규제를 시작했다. 하지만 기술은 이미 완성되었고, 발전된 기술은 나쁜 곳 뿐 아니라 좋은 곳까지 활용될 것이다.
나는 항상 규제를 당하는 입장의 사람들만 만났기 때문에 기술 규제에 대한 부정적인 생각을 가지고 있었는데, 이 내용을 읽으면서 규제, 혹은 어느정도의 사회적 합의가 빨리 이루어지는 것이 필요하겠구나. 라는 것을 느낀다.
고도로 네트워크화되고 디지털화된 사회는 ‘공격면’이 굉장히 넓어서 인간의 힘만으로 방어하기에는 역부족이다.
…
가장 극단적인 방어법은 네트워크를 차단하고 시스템을 오프라인으로 전환하는 것이다.
comment
이걸 보고 일본 로봇기업인 ‘화낙’이 생각났다. 화낙은 산업용 로봇 시장점유율 1위인 회사이다. 화낙은 보안을 위해 이메일까지 쓰지 않고 회사의 모든 통신을 팩스로만 주고받고, 보고체계 또한 종이로 이루어진다고 한다. 인터넷에 정보를 올리는 순간 다방면으로 들어올 수 있는 공격의 위험때문에, 디지털이 아닌 아날로그로 보안을 지키는 것이다. 이처럼 디지털 회사가 보안을 지키는 방식은 지극히 아날로그적인 아이러니함이 재밌었다.
AI 무기 또한 이러한 아이러니함을 갖출 것이다. 현재의 보안은 화이트해커, 즉 해커가 미리 취약점을 찾은 후 그 취약점을 보안하는 식으로 이루어 진다. 인간이기 때문에 만들어진 취약점을 공격하는 것이다. 사이버 공격과 방어가 AI로 이루어진다면, 그 사이에 인간이 낄 틈은 없다. 공격이 되어도 이러한 취약점이 왜 발생했는지 모르고, 반대로 방어가 되어도 왜 그런지 모른다. 이러한 상황 속에서는 무기들의 체계,정보 저장, 보안체계도 재래식으로 돌아갈 가능성이 높다.
AI가 개개인의 오랜 신념을 확증하는 ‘뉴스’만 선별해서 보여주거나 오래전에 사망한 배우가 ‘출연’하는 영화를 만드는 등 정보와 오락 콘텐츠가 개인화되고 실감나게 합성된다면, 한 사회의 구성원들이 과연 그 사회의 역사와 현재를 공통되게 인식할 수 있을까? 사회에 공통된 문화가 존재할 수 있을까?
comment
21년 페이스북 내부고발자인 프로덕트 매니저가 영국 하원 청문회에서 “분노와 증오는 페이스북이 존재감을 키우는 가장 쉬운 방법이었다”며 “(앞으로도) 알고리즘은 중도 좌파는 극좌파로, 중도 우파는 극우파로 만들 것”이라고 경고한 적이 있다. 또한, 페이스북 고위 임원은 “소셜미디어의 알고리즘은 극단적이고 사회 양극화를 부추기며, 논란이 될 만한 콘텐츠를 우선순위에 두고 추천하는데 그 이유는 자극적인 콘텐츠가 사용자를 오래 붙잡아 둘 수 있기 때문”이라 언급하기도 했다. 요즘 부쩍 사회가 양분화 되고 있는 이유는 추천알고리즘의 영향이 어느정도 있다고 생각한다. 과거에는 정보를 얻으려면 능동적으로 정보를 찾아야 했다. 그러는 과정 속에서 다양한 의견을 만날 수 밖에 없고, 이를 통해 정보를 좀더 객관적으로 볼 수 있는 눈을 기를 수 있었다. 하지만, 요즘은 자동으로 추천되는 정보들로 인해 수동적으로 정보를 수용하게 된다. 이러한 현상은 당장 유튜브에서 무심코 정치 유튜브라도 눌러보면 알 수 있는데, 알고리즘에 한쪽 성향의 동영상만 계속해서 뜨게 된다. 초기 인터넷이 나오고 SNS가 출현했을 때는 전세계의 장벽이 허물어질 것이라는 말이 나왔으나, 역설적이게도 현재는 같은 나라 안에서도 장벽을 치고 살아가는 사람들을 볼 수 있게 되었다.
한 사회에서 만들어진 AI 기반 네트워크 플랫폼이 다른 사회 ‘내부’에서 운용되고 발전하여 그 사회의 경제에서, 또 정치적 논의에서 배제될 수 없는 요소가 된다니, 이전 시대에서는 상상하지 못했던 일이다
comment
요즘 gpt가 너무 화두가 되어서인지 무심코 AI의 파급력을 LLM정도로만 한정하고 있었던 것 같다. 사회,경제적으로 가장 파급력이 큰 것은 추천시스템이 아닐까 싶다. 챗봇 등은 우리가 ai를 인지하고 사용하지만, 추천시스템은 우리가 인지하지 못하는 사이 우리의 정보,관심,성향을 교묘하게 한쪽으로 이끈다. 현재 ai에 의한 이끌림은 점점 극단으로 가는 중이다. 한국 뿐 아니라 전 세계에서 좌,우의 싸움, 남/녀, 세대 갈등등이 점점 더 심해지는 것에는 ai의 지분이 적지 않다고 생각한다.
이건 위 코멘트를 읽고 기술에 대한 규제에 대해 나의 생각을 동아리원이 물어봐서 아래와 같이 답했다.
앞서 말했듯 기술에 대한 규제는 필요하다고 생각하기는 하나, 그럼에도 저는 기술의 발전에 대한 규제에는 부정적인 생각을 가지고 있습니다. 이는 기술의 발전은 필연적이라고 생각하기 때문입니다. 특히, 이러한 필연성은 AI분야에서는 특히 더 적용되는 것 같습니다. 기술에 대한 규제가 강력한 분야를 예를 들어보자면, 대표적으로 원자력이 있습니다. 원자력은 현재 국제원자력기국 IAEA에 의해 평화적인 목적으로만 핵을 이용하겠다는 협약을 맺어야만 하고, 핵무기를 개발하려고 하면 강력한 제제를 받습니다. 핵무기 개발은 핵시설 등 국가주도적인 노력이 필요하고 그 부산물 등 비교적 추적이 쉬움에도 불구하고, 북한,파키스탄 등의 나라가 핵개발에 성공했습니다. 결국, 기술이 필요하다면 어떠한 제제에도 불구하고 개발이 될 것이라는 것이 저의 생각입니다. AI 기술의 경우 어떠한 형태가 될지는 모르겠지만 원자력과 같이 물질적인 흔적이 없으므로 개발의 흔적을 찾기는 매우 어려울 것입니다. 결국, 제제를 가하면 가할수록 더더욱 음지로 숨어버리게 되어 그 대응책 또한 찾기 어렵게 될 가능성이 높다 생각합니다. 차라리 기술을 오픈할 유인(논문이나 명성, 그에 따라오는 돈이 있겠죠)을 만들고 그 기술에 대한 해결책을 찾아내는 것이 가장 빠르고 강력하지 않을까라는 생각이 있습니다. 다만 기술발전이 아닌 기술의 활용에는 제제가 필요하다고 생각합니다. 핵을 개발하는 것과 핵을 쏘는 것은 또 다른 문제이듯(러시아는 실제 전쟁 중임에도 핵을 사용하지 못하고 있죠), 기술의 발전과 기술의 활용은 분리되어 있기 때문입니다. 기술의 활용은 대부분 기업에 의해 이루어지고, 기업은 영리를 추구하는 집단입니다. 윤리를 지키려는 경향을 보이더라도, 대부분 윤리를 지키지 않으면 영리추구에 문제가 생길 수 있기 때문에…지키는 경우가 많다고 생각합니다. 따라서 윤리와 영리가 양립할 수 없는 상황에서는 기업은 항상 영리를 추구할 것이기 때문에, 이에 대해서는 국가 혹은 연합에 의한 제제가 필요하다고 생각합니다. 앞서 말씀드린 페이스북에 대한 제제를 예시로 들 수 있겠습니다. 하지만 어떠한 제제의 형태로 간섭할 수 있는가, 국가는 과연 국가의 이득을 포기하면서까지 윤리를 지키는 선택을 할 수 있는가…는 잘 모르겠습니다. 생각하다보니 점점 더 어려워 지는것 같네요. 가장 중요한 점은 사회 구성원들이 기술의 발전에 경각심을 가지고, 그에 따른 토론이 활발하게 이루어져야 한다고 생각합니다. 기술 발전에 비해서 사회적 합의는 너무 늦은 모습을 보이고 있는데, 사람들이 경각심을 가지고 기술을 받아들여야 사회적 합의가 조금이나마 빨라질 수 있다고 생각합니다.
AI 혁명은 대부분의 예상보다 빠르게 발생할 것이다. 그에 따르는 변화를 설명하고, 해석하고, 체계화하는 개념들을 확립하지 않는다면 우리는 길을 잃고 만다. 도덕적,철학적,심리적,실용적 차원에서, 즉 모든 차원에서 우리는 새 시대의 벼랑에 서 있다. 이성 신앙 전통 기술이라는 유서 깊은 자원을 활용해 여전히 세계에 인간성이 유지되도록, 현실과 우리의 관계를 재정립해야 한다.
comment
컴퓨터 너머의 상대방이 인간인지 기계인지를 맞추는 튜링 테스트는 이미 난제가 아닌 것이 된지가 오래다. 인간 고유의 능력이고 가장 견고할 것이라 여겼던 예술 분야는 가장 먼저 AI에게 함락된 분야가 되었다. ‘인간성’이라는 것은 무엇일까. 예전에 좋아하는 형과 AI세계에서 어떤 일을 해야 AI에게 대체되지 않을까. 라는 주제로 이야기 한 적이 있었는데, 그 형은 그 해답을 ‘인간과의 관계’라고 생각한다고 말해주었다. 사람과 사람 사이의 믿음, 사랑, 신뢰. 이는 아무리 기계가 발전해도 따라잡을 수 없는 것이니 이쪽으로 파보고 싶다고 했다. 나는 나만의 대답을 아직 내리지 못했다. 일단 AI를 공부하면 1인분은 하지 않을까 라는 생각을 했을뿐. 앞으로 내가 계속해서 생각해야할 숙제같은 일이다.
지금 우리의 문제는 아직 그 기술들의 철학적 시사점을 다 알지 못한다는 점이다. 우리가 신기술을 토대로 진보하는 중이지만, 아직까지 그 진보는 저절로 나타나는 변화일 뿐 우리가 의식적으로 이루고 있진 않다. 인간의 의식에 마지막으로 대변혁이 있었던 계몽주의시대에 그토록 큰 변화가 일어났던 이유는 신기술(인쇄술)이 등장하면서 새로운 철학적 사유가 발생하고 그 결과물이 신기술에 의해 보급됐기 때문이다. 우리시대에도 신기술이 등장했지만 앚기 길잡이가 될 철학은 성립되지 않았다.
comment
진보와 변혁은 다르다니, 미처 생각하지 못한 관점이다. 나는 지금까지 기술을 하면 진보하는 것만 생각해왔다는 생각이 들었다. 사실 같은 기술이라도 어떻게 사용하느냐에 따라서 활용도가 천차만별인데, 너무 편협한 생각을 가졌는지도 모르겠다. 진보를 추구하는 사람보다 변혁을 추구하는 사람이 되자.