블록체인, 빅데이터, 인공지능 – 데이터는 왜 인공지능을 필요로 하였는가?

in #blockchain7 years ago

알파고가 이세돌 9단을 상대로 4승 1패를 거두었을 때, 바둑을 아는 사람이건 모르는 사람이건 다들 놀랄 수 밖에 없었다. 그러나 더 놀라운 것은 그 이후로 인류 중 어느 누구도 알파고를 이길 수 없을 것이라는 것을 예상한 사람이 없었다는 사실이다.

그렇다면 인류는 머리를 써서 생각하는 모든 분야에서 인공지능과의 경쟁에 맞닥뜨리게 되는 것일까? 로봇에 의해 블루컬러 일자리가 날아갔다면, 인공지능에 의해 화이트컬러 일자리에도 종말이 온 것인가? 사람들은 우리들 중 누가 직장에서 ‘알파고’를 만나게 될 것인가를 알고 싶어한다.

이제 인공지능이 할 수 있는 것, 그것도 인간보다 훌륭하게 할 수 있는 것은 어떤 것들이고, 지금 왜 인공지능이 잘할 수 있는 일이 ‘가능’해졌고 ‘필요’했던 것인가를 살펴 보기로 하자. 그것을 살피는 것은 ‘데이터가 왜 인공지능을 필요로 했는가?’라는 질문에서 시작된다.

데이터는 왜 지식 적재적(Knowledge-laden)인가?

‘적재성’이라는 단어는 좀 낯설다. 이 단어가 사용된 가장 유명한 사례는, 과학철학 영역에서 ‘관측은 이론 적재적이다’라는 말로, ‘이론 중립적 혹은 독립적 관측은 없다'는 것을 표현한 것이다. 나는 이 말을 분명 그와 유사한 의미로 빌려 쓰고 있다.

인류의 역사에서 데이터가 지식 적재적일 수 밖에 없었던 이유는 분명하다. ‘사회적으로’ 데이터가 생산되기 위해서는 데이터를 생산하는데 들어가는 비용이 ‘정당화’되어야 하는데, 그 ‘정당화’라는 것은 ‘그 데이터가 왜 생산할 가치가 있는지’를 설명하는 것이다. 그러나 어떤 종류의 데이터 생산 프로세스가 ‘설명’될 수 없는 영역에 있다면, 그것은 유지되기 어렵다. 물론 가끔씩은 ‘종교적 제식’(Religious Ritual)인 경우 상당 기간 ‘설명’의 대상이 아닐 수도 있지만, 그것이 오래 유지될 가능성은 매우 낮다.

현대적으로 생산되는 데이터들은 대개 ‘지식에 의존하여 설계된 프로세스’에 의해 생산된다. 이는 그 데이터의 의미가 확정된 데이터들만을 생산한다는 뜻이다. 사회통계나 회계, 평가, 컴퓨팅 시스템 등에서 생산되는 데이터는 가장 전형적인 ‘지식에 의존하여 설계된 프로세스’에 의해 생산된 데이터이다. 그러나 그러한 데이터들은 ‘의미를 생산해 내는 프로세스나 시스템’ 밖으로 나가는 순간 쓰레기가 된다. 마치 컴퓨터의 어떤 시스템 폴더에 들어있는 알 수 없는 기호들이 가득한 시스템 로그 파일을 노트패드로 열어본 것과 비슷한 상황이다.

그런 점에서 ‘데이터의 지식 적재성’은 맥락적이다. 왜냐하면 우리는 가끔 ‘지식’을 떠난 데이터의 기록 매체들과 마주치기 때문이다. 그리고 간혹 그 데이터들은 전혀 다른 의미 생산 체계 안으로 들어가 원래 생산의 맥락에서와는 전혀 다른 의미를 획득하여 살아 남기도 한다. ‘고고학’과 ‘인공지능’은 그것의 전형적 사례다.

컴퓨팅과 ‘의미없는 데이터’들의 탄생

쓰레기(garbage)를 자동으로 치워주는 자바(Java)와 같은 최근의 프로그래밍 언어들은 ‘부주의한 개발자’를 마구 양산한다. 그러나 이것이 나쁘다는 것은 아니다. 지금은 이미 컴퓨팅 자원이 부족해서 데이터를 하나 읽고 쓸때마다 빈 그릇을 치우고 다음 연산을 위해 준비해야 하는 시절이 아니기 때문이다. 하지만 과거의 소프트웨어 엔지니어들은 자신의 코드가 만들어내는 데이터들이 혹시 어딘가에서 메모리를 새나가게 만들지 않는가를 늘 신경써야만 했다. 왜냐하면 사용되지 않는 프로세스와 데이터들이 자원을 잡아 먹는 상황이란 개발자에게 ‘제거해야 할’ 병적 상태이기 때문이다.

하지만 마이크로 컴퓨터는 막 태어났을때부터 쓰레기 데이터와 함께였다. 정신병의 일종으로 분류되는 ‘쓰레기 모으는 병’에 걸린 환자들과 동기는 같다. ‘언젠가 쓰일지 몰라서’ 시스템들은 당장 쓰이지 않는 데이터들을 곳곳에 모아둔다. 가장 전형적 쓰레기는 ‘로그(log)’ 데이터라고 불리는 것인데, 그 데이터들은 때로 컴퓨터를 갖다 버릴 때까지 한번도 사용되지 않을 수도 있다. 시스템들이 이렇게 ‘언제 쓰일지도 몰라서’ 쌓는 데이터를 생산하고 보유하는 이유는 다양하다. 그 중 대표적 이유는 ‘사후 감사적’(audit) 이유다. 시스템이 죽는다거나 해킹되거나 전원이 나가는 상황에서 최대한 자동으로 저장한 데이터를 이용해서 작업 손실 없이 이를 복구하거나 원인을 규명하려는 것이다. 그리고 이 쓰레기들은 시스템 전체에서 ‘심각한 수준’은 아니므로 참아줄 수 있다.

하지만 만약 쓰레기를 모았더니 그것이 제공하는 ‘가치’에 비해 ‘보유비용’이 너무 크다면, 우리는 결정을 내려야 한다. ‘버릴 것인가? 재활용할 것인가?’ 이걸 결정 못하면 ‘병’이 되는 것이다. 구글은 대용량 컴퓨팅의 역사에서 최초로 맞닥뜨린 문제들이 많은데, 그 중 하나가 ‘대규모 쓰레기 처리’다. 서비스 데이터가 커지고 사용자가 늘어난 만큼 쓰레기가 쌓이기 때문이다.

인류는 컴퓨터 시스템이 대중화되기 전까지 한번도 ‘규칙/행위 주도적 데이터’가 ‘지식 적재적 데이터’에 비해 이렇게 많아진 것을 경험한 적이 없다. 왜냐하면 컴퓨터 대중화 이전에 데이터를 만드는 프로세스는 너무 비용이 높았고, ‘가치’는 ‘지식 적재적 데이터’들이 거의 다 차지하고 있었기 때문이다. ‘규칙/행위 주도적 데이터’란 바둑의 기보, 주식 시장의 거래 데이터, 온도계 센서가 기록한 값들, 온라인 서비스의 계정별 로그인 시간 같은 것인데, 그나마 그것은 사람을 통해서 ‘의미’를 얻음으로써 ‘정당화’되는 것들이다. 하지만 그것의 수백 수천배의 데이터가 ‘의미’를 만들어내는 프로세스를 떠나 컴퓨팅 시스템에 쓰레기처러 쌓이고 있다. ‘의미’를 얻지 못한채로. 새로운 ‘의미’를 발견해 줄 누군가를 만나지 못한다면, 데이터들은 그냥 쓰레기가 된다.

쓰레기 더미에서 ‘의미’ 퍼올리기

‘규칙/행위 주도적 데이터’들은 종종 설명을 요구받는다. 그 요구를 견뎌내고 ‘설명’을 성공시키는 일은 쉽지 않다. 인류는 그런 데이터들 안에 ‘의미’가 담겨있다는 것을 오래전부터 알고 있었다. 때로 일부 집요한 사람들은(티코 브라헤 같은) 자신의 지식을 설명하기 위해 매우 큰 수고를 들여 규칙에 따라 모은 데이터를 사용함으로써 자신의 ‘지식’을 정당화했다. 그리고 그 데이터를 얻으려고 데이터를 가진 사람에게 공을 들이거나(케플러), 국가권력을 활용해 아무런 의미가 보장되지 않은 데이터를 ‘규칙’을 가지고 모았다.(고대의 천문 관측이나 근대 과학의 태동기의 학자들 대부분이 해당된다) 그리고 ‘규칙/행위 주도적 데이터’들의 양이 상대적으로 많지 않고, 그것들을 해석함으로써 얻을 수 있는 이익이 큰 경우, 즉 부가가치가 높은 경우에는 그 데이터 곁에 권력으로서의 지식, 즉 학문이 만들어졌다. 대표적인 것이 경제학이나 의학과 같은 학문이다. 그러나 그 데이터를 해석해서 얻을 수 있는 이익이 크지 않은 경우, 인류는 그것을 생산하지 않거나 버리는 것이 합리적이라고 여겨왔다.

하지만 만일 데이터를 해석하는 비용이 매우 낮다면 어떨까? 그것은 데이터를 해석해서 얻을 수 있는 이익 작더라도 ‘해석’이 합리적일 수 있음을 의미하며, 그 데이터를 생성하는데도 거의 비용이 들지 않는다면 그 ‘합리성’의 범위는 더욱 커진다. 구글의 초저비용 대용량 컴퓨팅은 검색엔진을 통해 수집된 ‘범용적’ 조각 데이터의 의미를 해석하는 것 뿐아니라, 사용자 개개인이 남긴 조각 데이터를 모아 사용자에게 ‘개인화된 의미’를 해석함으로써 만들어 낼 수 있는 가치 이하로 비용을 낮추는데 성공했다. ‘서비스의 개인화’의 개념은 다른 누군가가 만들어냈을지 모르지만, 그것을 ‘무료로’ 제공하는 서비스로 확장시킬 수 있는 비용 구조의 컴퓨팅으로 만든 것은 구글이었다. 그리고 그것을 구글만큼이나 잘 활용한 것은 아마존과 페이스북, 애플이었다.

사실 구글은 이 분야에서도 운이 좋았다. 무엇보다 구글이 텍스트 처리 과정에서 텍스트를 N-gram 청크라는 단위로 썰어서 컴퓨팅을 ‘해야만 했던’ 것이 ‘의도하지 않은’ 도움이 됐다. N-gram 청크 컴퓨팅은 쉽게 말하면 문장을 N글자 단위로 잘라서(엄밀하게는 1 바이트씩 이동해가면서 잘라서) 64메가 바이트 단위로 하나의 파일로 만들어서 분산 파일 시스템에 저장해두고 데이터 컴퓨팅을 하는 것을 뜻한다. ‘의미’ 단위로 가지런히 정렬된 DBMS 입장에서 보자면, 이것은 ‘쓰레기’에 가깝다. 그런데 구글에게는 페이지랭크를 만드는 과정에서 생긴 이 ‘쓰레기 더미’를 이용하여 형태소 분석, 아스테리스크(Asterisk : ‘’을 의미한다) 확장 검색, 부울리안 검색 등을 제공하는 기술을 만들어낸 ‘bi-gram의 흑마술사’라고 불린 아미트 싱할(Amit Singhal)이 있었다.*(2016년 우버로 자리를 옮겼으나 구글에서 있었던 일 때문에 짤렸지만..) 인공지능과 기계학습의 대가인 피터 노빅을 입사시킨 것도 훌륭한 선택이었다. 그리고 12년 후 구글은 딮러닝의 난제를 풀어낸 제프리 힌튼 마저 얻었다. 그의 회사를 사들임으로써.

인공지능으로 할 수 있는 것은 무엇인가?

나를 인공지능 전문가로 잘못 알고, 내게 질문하는 사람들은 늘 이것을 묻는다.
‘인공지능으로 어떤 것들을 할 수 있는 것인가?’

그러나 이 질문은 다음과 같이 수정되어야 한다.
‘인공지능을 적용할 수 있는 대상이 갖춰야 할 조건은 무엇인가?’

인공지능을 적용하기 위해서는 매우 낮은 비용으로 많은 양의 ‘규칙/행위 주도적 데이터’를 모을 수 있는 데이터 생성 프로세스가 있어야 한다. 여기서 매우 낮은 비용이란, ‘얻을 수 있을 것이라 기대하는 이익에 비해’ 그렇다는 뜻이다. 그리고 그 데이터 안에 내재된 결정이나 암묵적 규칙들이 인공지능을 통해 얻을 수 있으리라 기대하는 요소를 만들어내고 있다는 판단이 있어야 한다. 그리고 마지막으로 이해관계자들이 ‘의미’가 이해되지 않더라도 ‘결과’를 받아들일 마음의 준비가 되어 있어야 한다. 왜냐하면 인공지능은 자신이 왜 그렇게 했는지를 설명해주지 않기 때문이다.

인공지능의 정체는 ‘인간이 고려하기에는 비용 효율적이지 않은’ 영역에 있는 데이터를 벡터 공간에 뿌려놓고 convexity를 가진 비용함수를 기반으로 이를 ‘분류’하고 그 ‘분류’가 ‘패턴’이 될 수 있음을 되먹임(backward propagation은 결국 일종의 feedback이다)을 통해 재확인하는 컴퓨팅 과정을 초저비용으로 구현한 것이다.

그렇기때문에 인공지능에 적합한 데이터는 ‘규칙’에 의해 생성된 데이터이거나, ‘암묵적 규칙’이 있다고 여겨지는 데이터이다. 바둑이나 게임은 전자에, 주식 시장은 후자의 영역에 해당하는 데이터를 뿜어내는 대상이다. 그림의 스타일이나 특정인의 말소리도 상대적으로 제한된 규칙을 따르는 데이터로 만들 수 있는 영역이다. 오히려 ‘모든 사람의 말소리’로부터 패턴을 추출하는 것은 인공지능에게는 훨씬 어려운 문제가 된다. 특정인의 말소리는 충분한 데이터만 쌓이면 명백한 패턴을 분류할 수 있지만, ‘모든 사람의 말소리’를 듣기 위해 필요로 되는 한두마디만으로도 상대의 발성/발화 패턴을 인지하고 ‘적응적 듣기’(adaptive hearing)와 같은 인간의 능력을 인공지능이 흉내내기는 거의 불가능할 지도 모른다. 왜냐하면 인간의 ‘타인의 말소리 듣기’는 이미 수백만년 동안 인간들이 ‘타인의 말소리를 들은’ 결과로 만들어진 능력이기 때문이다.

그렇다면 현재 인공지능의 등장으로 인해 가장 위험한 상황에 빠진 사람들은 과학자들이다.(이 주장은 과학사학자이자 STS 학자인 홍성욱 선생이 들으면 강하게 반론하시겠지만^^) 인공지능은 지구가 들려주는 소리로부터, 하늘에서 쏟아지거나 환자의 몸에서 빠져나오는 감마선의 산란으로부터 미세한 패턴을 찾을 수 있고 그것을 재현할 수 있지만, 그 데이터들을 다 고려한 ‘과학적 가설’을 만들기에 인간에게 주어진 시간이 너무 제한적이기 때문이다. 인간은 ‘가설’이 있어야 ‘데이터’를 볼 수 있지만 인공지능은 ‘가설없는 과학’을 주창할 것이며, 인간은 ‘예측의 전제로서의 이론’에 집착하는 동안 인공지능은 ‘이론없는 예측’을 내어놓을 것이다. 인간의 ‘지식’에 대한 인공지능의 ‘조립주의적 도전’이 시작되었다. 인간이 인공지능에 대항할 유일한 길은 ‘데이터를 주지 않는’ 것이다.

인공지능으로 사람들이 무언가를 할 수 있게 된 이유는 고속 병렬 데이터 컴퓨팅의 비용이 매우 낮아졌기 때문이다. 구글과 컴퓨팅 기업들은 그 비용을 더 낮추기 위해 TPU(Tensor Processing Unit)를 만들고, 더 많은 데이터를 더 다양하게 모으기 위해 꾸준히 IoT(Internet of Things)라는 기술 캠페인을 한다. 그들은 자신이 해야할 것이 ‘알파고’와 같은 흥행 이벤트라는 것을 알고 있다. 그렇게 하면 각 나라들과 기업들이 몰려들어 데이터를 만들고 자신들에게 ‘공개할 것’이라는 사실도 정확히 알고 있다. 인공지능이 모든 것을 할 수 있을 것 같은 환상을 만들면 가치있는 데이터들이 자신들에게 쏟아져 들어온다면, 그들에게 이보다 효과적 투자는 없다.

과거에는 비용 문제로 고려할 수 없었던 데이터들이 컴퓨팅 비용 이상의 ‘가치’를 만들어줄 수 있는 데이터가 되었다. 그러나 그 ‘가치’는 인간이 가진 욕망의 산물이다. 오프라인에 있는 저효율 프로세스를 온라인 상의 저비용 프로세스로 대체함으로써 사업의 기회를 만드는 것, 인간의 지적 능력만으로 긴 시간과 비용이 들어가던 ‘지불의향이 높은 문제’를 저비용으로 해결하는 방법론을 만들어 시장의 경쟁구도를 흔드는 것, 그렇게 하여 결국 지불 의향이 있는 거의 모든 문제들을 온라인으로 옮겨서(online transform) 풀면 더 싸고 쉽게 풀리는 ‘일반적 공식’을 찾아내는 것이 그들의 목표다.

Sort:  

통찰력이 번뜩이는 글이네요. 혹시 참고하신 서적이나 문헌 목록을 알 수 있을까요?

지금 제가 5편으로 나누어 쓰고 있는 글(이번 것이 4편째)은 넓게는 기술사회학의 분야로 통칭할 수 있고, 좁혀서는 Bruno Latour라는 프랑스 기술사회학자의 '행위자 네트워크 이론'의 모티브를 가져다 쓴 글인데, 최대한 학술적 용어들은 빼고 'IT 전문가'의 용어로 쓰고 있습니다. 위의 키워드들을 검색하시면 좋은 출발점을 얻으실 수 있을듯^^ 감사^^

"Laboratory life: The construction of scientific facts" 이 책이 꽤 연관이 있어보이는데요 시작점으로 괜찮을까요? 마지막 챕터 제목인 "The creation of order out of disorder"가 와닿네요.

일단 이정도로 시작해보심도^^ http://aladin.kr/p/iF1mk

감사합니다 ^^

흥미롭게 읽었습니다.
특히 단순업무나 기술적인 데이터 분석이 필요한 회계업무자리를 대체할꺼다 라고 생각했었는데... 과학자라니요...
창의적인 분야라고 생각한 직군이 나와서 당황했습니다.

인공지능은 '인간에게 의미를 갖지 못하는 데이터'들로부터 지식을 조립해낼 수 있을 겁니다. 인간은 할 수 없는 영역에서..

과학자가 사고(思考)실험을 하려고 해도 의미있는 기본적인 데이터를 기반으로 확장을 하는데...
인공지능은 의미없는 데이터에서 시작할 수 있다는 말이군요...

네 인공지능이 인간 지식의 '비환원적 밑바닥'을 보여주게 될것 같습니다. 사람들은 자신들의 지식이 뭔가 원리로 환원된다고 생각하지만.. 실제로는 '조립'되어 있는 것이죠.

데이터를 많이 모으는 기업이 그 데이터를 이용해서 새로이 지식을 만들어낸다면... 그것을 선의로 사용해야 할 텐데요.
이전글 보면 구글이 자주 변심을 하는것으로 보여서요.
'don't be evil' 참 좋은 슬로건인데...

저의 5부 연작은 바로 '데이터'의 문제를 다루는 글입니다. 블록체인이 왜 등장했는가에 대한 기술사회학적 문제제기이기도 하고요. 집중화에 대항하는 이유가 바로 그 데이터의 권력 문제죠.

재미 있게 잘 읽었습니다. 글의 관점에서 인공지능이 더 필요한 분야는 의학분야가 아닐까 하는? 의학 자체가 병을 예측하고 그 예측에 알맞은 치료도 예측하는 예측의 연속이라 이건 사람보다 인공지능 컴퓨터가 더 잘할 수 있는 분야라 생각됩니다

일단 X레이나 CT, MRI 같은 것은 인간 의사가 '의미'를 읽느라 '그림'을 보여줘야 하지만, 인공지능은 X레이 투과 및 산란 패턴으로 '그림' 이상의 정보를 알게 될 것 같습니다. 인간은 보지 못하는 '의미'를 데이터로 보는 거죠.^^

대부분 치료 특히 약물적 치료는 환자의 상태를 보고 판단 하게 되는데 판단에 영향을 미치는 것은 주로 그동안 알려진 데이터를 바탕으로 의사가 선택하게 되는 겁니다. 이걸 인공지능이 대신 하게 된다면 훨씬 많은 데이터를 가지고 판단을 내릴 수 있게 되므로 더 안정적이고 바른 판단을 내릴 가능성이 높아 진다고 생각 됩니다^^그냥 저 만의 생각입니다

이제 인간이 '볼 수 있는' 영상의학이 아니라, 인공지능에게 많은 정보를 제공할 수 있는 '데이터 의학'이 함께 발전할겁니다. 오늘 뉴스를 보니 구글 엔지니어가 외계행성을 발견하는 프로젝트를 하고 있네요^^

좀 더 적확하게 표현한다면, 인공지능이 적용되기 용이한 분야가 의학이나 법학과 같은, 지식의 체계와 구조가 좀 더 명확히 드러나는 분야라고 볼 수 있을 것 같습니다.

내용이 상당히 어렵네요; 수많은 쓰레기더미에서 개인에게 의미있는 정보를 찾아내기위해서 인공지능이 필요하다는 이야기이신건가요? 조금 쉽게 설명해주시면 더 잘 이해할 수 있을거같아요 ^^ 좋은포스팅 잘보고갑니다

독자들께는 죄송합니다. 제가 일단 생각을 정리하느라 쓴 글을 그냥 포스팅하고 있어서^^ 생각이 정리되면 더 풀어서 쓴 글을 쓸 수 있을 것 같습니다^^

기대하겠습니다 ^^ 앞에글도 읽어볼게요 ^^

좋은 글 잘 읽고 갑니다- 리스팀해갑니다!

글 재미있게 보고갑니다. 리스팀도하고 팔로우도 합니다. 두고두고 읽고싶네요.

감사^^ 이 글은 5부 연작의 네번째 글입니다. 앞의 것도 재미있어 하실듯^^

네 첫번째부터 읽고있습니다!!! 요즘 천재성에 대해서 고민하고있는데 많은 도움이 될것같습니다.

도움이 되시길^^

인사이트 있는 글 잘 읽었습니다. 저는 금융쪽에 종사해서 그런지, 확실히 데이터가 적재되면 적재될 수록 자산군 간의 관계분석과 향후 사람이 파악하지 못하는 과거의 패턴 분석으로 미래를 예측하는 영역을 더 쉽게 내줄 것 같다는 생각을 하고 있었어요.

이 글을 읽노라면, 인공지능을 위해 데이터를 만들고 데이터를 cleansing하는 일에 인간이 매진하게 되는 결과가 발생하지 않을까 생각도 드네요.. ㅎㅎ

'지식의 주체로서의 인간'이라는 근대적 인간상 하나가 흔들리는 거죠^^

STS를 인공지능의 적용과 데이터의 생산 관점에서 접근하셨다니 흥미롭네요. 좋은 글과 블로그를 이제야 읽습니다.

인공지능을 비롯한 여러 알고리즘들은 사실 그 적용과 개선에 사람들이 관심을 갖곤 하지만, 그 이면에는 데이터 생산자들이 헤게모니를 쥐고 있고, 데이터 생산을 누가 언제 어디서 어떻게 시행하고 통제하느냐의 문제가 사실 가장 중요한 화두이지 않을까 싶습니다.

인간들은 가설 없는 데이터를 바라보기 위해 여러가지 시도를 해 왔지만, 결국 인간의 관점에서 어떻게 해석해야할 것인가에 대한 문제는 떠나지 않는 것 같습니다. 조립 이라는 단어를 쓰셨는데, 적절하다고 생각합니다. 사실 조립의 방식도 인간이 이해하기 어렵게 수행될 수 있다는 점이 양날의 검인 듯 합니다.

저는 개인적으로 인공지능 혹은 여러 머신러닝의 기법들을 최적화 관점에서 바라보고 있습니다. 모든 데이터는 분류되어야 하며, 모든 문제들은 인간보다 좀 더 반복적 연산을 잘 할 수 있는 기계가 최적화 문제로 치환하여 풀 수 있다는 믿음일 수도 있겠네요. 이러한 최적화 문제의 문제 구성마저 기계가 대신한다면 진정한 의미의 인공지능일수도 있지 않을까 합니다. 그 문제마저 조립될 수 있겠지만요.

고정된 가설 자체에 대한 부정이라, 흡사 푸코의 지식의 고고학을 떠올리게 합니다.

'조립'이라는 단어는 브루노 라투어의 '조립주의'라는 용어로부터 가져온 것입니다. 그 단어의 원래 의미에서도 느껴지듯이, '조립'은 '거시적 구조'와 독립적으로 '국지적 적합성'만으로도 결합 가능한 네트워크 성장 메카니즘이죠. 인간은 '일관성'의 압박을 받지만, 인공지능은 '거시적 담론'을 전혀 만들지 않으면서 '국지적'으로 유효한 지식을 생산하게 될 것으로 보입니다. 인공지능의 무서움은 '뻔뻔함'과 '꾸준함'에서 나오리라 봅니다^^