많은 담론에서 알고리즘1이 편향된 시각을 제공한다고 말한다. 그렇지만 간단히 말해 우리는 모두 편향적이다. 그런 우리의 정보 위에서 작동하는 알고리즘이 편향적이라 말하는 것은 전혀 놀랍지 않다. 편향은 알고리즘을 포함한 모든 사고에 필연적으로 수반되기 때문이다. 가령 우리는 ‘사과는’ 뒤에 올 단어로 ‘빨간색’, ‘둥근’ 등을 편향적으로 생각하지 ‘편향’, ‘관계’ 등을 생각하지 않는다. 사과는 편향이다. 이 문장이 얼마나 어색하게 느껴지는가?

정신적 편향과 알고리즘 편향은 다른 층위라고 주장할 수 있다. 정신적 작용은 창발적이며, 주어진 입력을 받는 단순한 알고리즘과 달리 체화된 인지로 이해해야 한다고 말이다. 하지만 역설적으로 이성이 요구하는 정합성은 알고리즘의 편향과 다르지 않다. 동일한 선을 여러 번 그릴수록 더 직선이 되는 이유는 엔트로피가 낮은, 우리가 직선이라고 편향적으로 생각하는 단순한 기하적 형태로 가깝게 다가가기 때문이다. 더 나아가, 창발성은 인간의 고유한 능력이 아니다. 알고리즘이 우리와 동일한 물리법칙 아래 계산된다는 것은 그들 또한 동일한 가능성을 지님을 의미한다. 실제로 충분히 복잡한 마이크로프로세서는 가끔 새로운 답을 내놓는다. 타이밍 지터와 부동소수점 연산부터 복잡한 스케쥴링, 동기화 로직까지 다양한 원인에서 누적된 우연성이 창발로 나타나는 것이다. 이처럼 물리적으로 내재된 무작위성은 게이트와 같이 통제된 논리에서도 드러난다. 무엇보다 외부 세계의 국지성이라는 동일한 조건에서 편향은 필연적이다. 정보 인식 과정에서 모든 정보가 동등한 중요도를 가지는 것은 물리적으로 불가능하다. 편향은 오류가 아니라 기능인 셈이다.

편향에 집중해 알고리즘을 평가하기 시작하면, 신호등 또한 필터버블을 유발하는 사악한 물건이 되어 버린다. 신호등은 교통 상황에 맞춘 개인화된 결과물이다. 또한 우리가 신호등을 찾아가지 신호등이 우리를 찾아오진 않는다. 그렇다면 신호등은 우리를 교통 법규라는 특정 사회에 속한 도덕적 버블에 가두고, 확증편향에 빠트리는 것이 아닌가? 도덕이 선이기 때문에 신호등은 정당하다는 비판은 도덕의 초월적 성격을 강조하기 때문에 충분하지 않다. 또 맥락 없이 독립적으로 알고리즘 결과의 선악을 가리는 것은 불가능하다. 여기서 집중해야 할 것은 바로 관계다. 신호등이 암묵적으로 필터버블을 구성한다고 해도, 그건 공유된 사회적 규범의 관계망 안에서의 작용이다. 그러나 알고리즘은 질적 맥락을 제거하고, 단수적으로 고립된 규범적 결과만을 제공한다. 이러한 도식은 도덕적 해석을 위한 맥락을 파괴한다. 매킨타이어의 유령적 자아의 재생산인 것이다.

전통적인 머신러닝 방법론은 데이터에 의한 편향과 알고리즘에 의한 편향의 차이를 구분할 수 있었다. 하지만 최근 LLM으로 대표되는 생성형 AI의 ZSL(zero-shot learning)은 이 둘을 구분할 수 없다. 코퍼스 데이터 표본이 크면 클수록 인간의 의사가 개입된 편향이라기보다는 알고리즘이 선택한 편향에 가까워진다. LLM의 일반적 프레임워크인 RAG는 데이터에 의한 편향이라기보다는 편향의 재생산에 가깝다. 하지만 알고리즘은 자기가 무엇을 하는지, 그것이 편향인지도 알 필요가 없다. (그리고 알 수도 없다) 결국 아무리 알고리즘이 편향적이라고 하더라도 알고리즘에는 인간의 의도만이 왜곡된 상으로 반영된다. 다시 말해 편향된 데이터로 학습시키고 편향된 시각으로 평가하니 당연히 편향이라는 결과가 나온 것이다. 무엇보다 편향의 순수한 근원을 추적하려는 모든 시도는 실패할 수밖에 없다. 상징마다 깃든 편향성을 계보학적으로 끝까지 밀어붙이는 일은 불가능하기 때문이다.

알고리즘은 관계 네트워크의 복잡성과 투명성을 에테르화하여 개개인의 주체성을 버리고 문맥 의존적 객관성을 얻는다. 정보는 주체성을 가지지 않는다. 예를 들어 물체를 A에서 B로 옮길 때 나의 의지적 행위의 주체성이, 물리적 변화를 표현하는 정보에서는 부재한다. 따라서 알고리즘의 자동화된 결정은 주체성이 소독된 정보를 하나의 블랙 박스에 넣고 그걸 다시 소비하는, 관계라는 맥락이 결여된 행위다. 이는 소비자에서 알고리즘으로 향하는 구조화된 정보 흐름의 낙차를 형성하기 때문에 경계해야 한다. 이러한 전체론적 낙차의 필요충분조건은 주체성의 소독과 하나의 블랙박스다. 코드화된 공간상에서 주체성을 보존하는 것은 불가능하고, 블랙박스가 다원적이라면 위계는 성립하지 않기 때문이다. 현실에서 질적으로 교반작용하는 다원적 관계성과 달리, 양자화된 정보에 의한 소통은 아무리 빨라져도 보이지 않는 단절을 도입하고 있다. 디지털 오디오나 사진이 현실과 다른 것처럼 말이다.

편향 재생산이 실재하는가?

편향은 필연적이고, 이를 문제 삼는 것은 알고리즘이 완벽해야 한다는 환상에 가깝다. 편향을 완벽하게 소독하는 것이 알고리즘의 목적인 것마냥 주장하는 것은 매우 위험하다. 무엇이 편향인지는 누가 정하는가? 다원성은 이에 대한 답이 아니며 이 주제는 다른 글에서 논해도록 하자. 이제 남은 질문은 이러한 편향이 누적되어 점진적으로 사고를 비트는 편향 재생산이 실재하는가이다. 만약 실재한다면 필터버블처럼 존재론적으로 존재하는지 에코챔버처럼 인식론적으로 존재하는지에 대한 구별도 필요할 것이다. 즉 편향의 존재에 관한 담론에 가려져 있던 알고리즘이 편향을 어떻게 재생산하는지 다뤄볼 것이다.

편향에 관해 논하기 위해서는 몇 가지 전제가 필요하다. 만약 알고리즘의 편향이 인간의 편향에 항상 종속적이라면 이 논의가 무의미해지기 때문이다. LRM(Large Reasoning Model)이 복잡한 사고 능력을 가지고 있지 않다는 것을 실험한 논문의 논평2은, 실험 설계를 반박하며 결론에서 아주 중요한 지적을 했다: 모델이 추론하는지가 아니라 우리가 추론과 표면적 텍스트 생성을 구분할 수 있는지가 문제다. 중국어 방 논증이라는 아주 고전적인 질문이 다시금 제기되는 이유는 계산된 발화효과행위의 의도성에 관한 본능적 거부감 때문이 아닐까? 즉, 알고리즘의 편향성은 인정하면서 그 행위능력에 대한 담론은 기술결정론으로 퇴보한 게 아닐까? 외적 가치론에서 유일하게 살아남은 정동을 위협하는 LLM에 대해서 특히 그런 것 같다. 물론 데리다적으로 생각하면 문제를 쉽게 회피할 수 있다. 발언의 맥락 단절은 오히려 재의미부여의 힘이라고. LLM이 강력한 이유는 그것의 의도성과 관련 없이 언어가 부여받은 권한을 초과한 권력을 행사할 수 있는 탈전유의 기능이라고. 하지만 이건 문제를 살짝 비튼 것이지, 존재론적 차원에서 이질적인 행위자와의 격차는 전혀 좁혀지지 않았다.

조금 더 행위자의 관점에서 중국어 방 논증을 독해해 보자. 이 논증의 가장 큰 오류는 인간이라는 원자적 행위자를 가정하면서, 중국어 방 그 자체는 행위자로 취급하지 않는다는 것이다. 이런 식으로 가정한다면 우리는 입이 언어를 이해하지 못하기 때문에 사람은 언어를 이해할 수 없다는 황당한 주장이 가능하다. 이는 모든 상호작용을 부분으로 종합하는 전형적인 근대적 주체성의 오류로 보인다. 또 형식적 계산에서 생각할 수 없다는 주장은 오토마타에 대한 빈약한 이해에서 출발한 듯하다. 게다가 뉴런도 어느 정도 형식적이다. 입력은 아날로그지만, 출력은 이산적이기 때문이다. 여기서 중요한 교훈은 생성하는 행위자는 구체적 경험만이 필요하지, 이해 책임이 없으며, 인과적으로 연결된 코드를 해석할 수 있는 내부적 능력을 갖춘 사람만이 이해할 뿐이라는 것이다. 결국 이러한 편향은 해석자에게 달렸고, 알고리즘과 인간 둘 중 하나에 결정적 책임을 물을 논거는 부족하다. 버틀러의 시각으로 말하면 우리는 언어의 초과적 역사성 아래 편향된 관점을 인용할 뿐이다. 따라서 알고리즘은 자체는 편향을 재생산하는 행위능력이 있지만 그 행위성을 소유하고 있지는 않다. 단순히 알고리즘이 인간의 편향에 종속인 것이 아니라, 우리가 그들에게 행위성을 위임했기 때문에 그들이 편향을 능동적으로 재생산할 수 있다고 해석해야 한다.

이런 의미론적 외재주의(Semantic externalism)에는 한 가지 큰 윤리적 딜레마가 발생한다. 단순한 전달자에게 윤리적 책임이 있는가? 아니면 이해하는 사람에게 최종 책임이 있는가? 지시 없이 AI가 프랑스어로 작성한 청부살인 의뢰서를 인도인이 다른 프랑스인 청부 살인자에게 전달할 때 우리는 누구에게 책임을 물어야 할까? ANT(Actor Network Theory)의 테제를 수용해 이런 인과 체인으로 연결된 중간자 또한 일반화된 대칭성으로 다루면 인도인에게도 분명히 책임이 있다. 하지만 인도인은 무작위로 연결된 기호들을 보고 어떻게 청부살인 의뢰서인 줄 아냐며 항변할 수 있다. 또 다른 사람은 언어는 사용 속에서 나타나기 때문에 이해하지 못하는 언어로 행위를 할 수 없다고 주장할 수도 있다. 하지만 우리는 좀 더 근본적인 질문에 답해야 한다. 우리가 생각하는 뚜렷한 인과성이 정말로 존재하는가? 현실은 이런 가상의 딜레마처럼 재현 가능하지 않다. 마찬가지로 알고리즘도 수학적 함수처럼 항상 결정론적으로 행위하지 않는다. 메이야수의 말처럼 모든 건 우연일 뿐일까? 이에 대한 물음은 다른 글에서 다루도록 하고, 다시 원래 논의로 돌아가 보자.

위에서 다뤘던 윤리적 딜레마에서 중요한 점은 편향 재생산이 의도 없이도 발생한다는 점이다. 즉 알고리즘이 의도성을 가지던, 가지지 못하던 편향 재생산은 양측 모두에서 의도 없이 일어난다. 편향의 생산과 해석에 이러한 비대칭성은 재생산의 존재에 관한 초기에 물음인, 인식론적인지 존재론적인지에 대한 대답을 요구한다. 캉킬렘의 말처럼 비정상은 관계 안에서만 인식되고, 데리다가 해체는 구조 안에서만 가능하다고 말했던 것도 같은 맥락을 공유한다. 우리가 이 편향의 관계 속으로 어떻게 미끄러져 들어가는지 알아야 한다는 것이다. 중국인 혐오를 예로 들어보자. 내가 중국인이 아닌 상황에서 짱깨라는 혐오 발언을 들으면 이중구속의 상황에 부닥치게 된다. 나의 찬반 유무와 관련 없이 어떠한 의견을 내놓으면 그러한 혐오 표현을 해석했다 인정하는 셈이고, 내가 의견을 제시하지 않으면 도리어 정체성을 인정하는 셈이 돼버린다. 즉, 나의 선택과 관계없이 포획되어 이 편향의 관계망 안에서 재생산하는 주체가 돼버리고 만다. 편향이 인식론적이라고 말하는 것은 이런 구조적 폭력을 가려버릴 수 있다. 편향은 인식론적, 존재론적 둘 다의 맥락에서 작동하지만, 우리가 좀 더 주의 깊게 봐야 할 주제는 필터버블 즉 존재론적 측면이다. 물론 인식론적 해석도 간과할 수 없다. 하지만 아래에서 다시 언급하듯 현대의 알고리즘은 행위의 위임이라는 광범위한 구조적 동역학 안에서 작동하고 인식론적 접근은 이런 구조를 해석하는 면에서 한계가 있다.

유명한 고전 여론조작(Manufacturing Consent)에서는 5종류의 필터를 거쳐 이익집단이 여론을 조작하는 방식을 구체적 사례와 함께 보여준다. 국지적인 알고리즘의 편향에서는 이런 도식적인 접근보다 서론에서 암시했던 관계적 접근법이 더 유용하다. 여론과 이익집단이라는 생산자 소비자 관계가 아니라 스스로가 상호 구성적 구조 내에서 의도 없이 재생산하기 때문이다. 편향이 어떻게 스스로 관계를 파괴하게 만드는지 위의 신호등 예시로 다시 넘어가 알고리즘과의 차이점을 논의해 보자. 신호등은 일종의 정적이고 내재된 규범이다. 또 경합적으로 제어하는 군중이 존재한다. 하지만 알고리즘은 비록 방법론적 기반이 내재 또는 관여하더라도 능동적으로 변화하는 규범의 성격을 띤다. 즉 알고리즘은 인간이 쓴 텍스트가 블랙박스 안에 들어가서 인간에 의해 다시 소비되는 것과 같이 교정 불가능하게 반복되는 구조다. 알고리즘도, 사용자도 자신의 편향을 볼 수 없으므로 더 위험한 것이다. 겉으로는 관계되어 보이지만 콘텍스트 없는 단절의 연속성을 지닌 알고리즘은 역사성이 없다.

통계 분석은 질을 양으로 그리고 다시 질로 변화시키며 허구적인 연속성을 창출한다. 여기서 손실되는 물화된 기억은 단순한 망각으로 봐야할까? 알고리즘에 의해 자동화된 주민등록 시스템에서 전산 오류로 몇 명이 사라졌다면, 그런 의도하지 않은 편향으로 누군가는 불법 이민자라는 낙인을 부여받을 수 있다. 이런 물화된 기억의 상실이 실존적 폭력으로 번역되는 현상은 세계와 단절된 거대한 내적 시스템에서, 즉 번역이 어렵거나 불가능한 블랙박스 안에서 일어난다. 우리를 위해 만들어낸 알고리즘에 의해 우리가 무력한 대자존재로 밀려나는 것이다. 알고리즘은 단순히 기술에서뿐만 아니라 사회 전반에서 단순히 수치로 환산될 수 있는 모든 지형에서 암시적으로도 작동한다. 알고리즘과 기술은 그들만의 내재된 조직적 기억체를 구성하며 우리를 초과하는 연결망을 구축하고 있다. 이 상황에서 알고리즘이 만들어낸 책임을 우리 스스로에게 부과하는 것은 도덕적 노예를 자처하게 될 뿐이다. 알고리즘은 우리의 의도를 초과해서 작동하기 때문이다.

존재론적 압축 사회

전화나 문자로 소통하며 의도가 잘못 전달된 경험은 흔하다. 이러한 불일치는 보통 비언어적 의사소통의 부재로 설명된다. 하지만 화상통화는 어떤가? 포스트코로나 이전 우리가 흔히 접했던 화상통화에서는 비언어적 의사소통이라는 시각적 풍부함에도 벽에 막힌 듯한 느낌을 받았다. 공간적 제약의 해소 이전에 그것이 정말로 제약이었는지 다시금 검토해 볼 필요성이 있는 것이다. 또 공론장 등 합의 담론의 대다수가 이런 제약 속에서 연구됐기 때문에, 디지털 시대의 합의 메커니즘을 새로 구상하는 것이 시급하다. 여기서 합의를 새로 구상한다는 원대한 목표를 세우진 않을 것이다. 대신 합의의 조건을 통해 우리와 알고리즘의 근본적 차이라고 생각되어 왔던 질과 양을 논해보자.

합의의 가장 기본은 공통된 전제다. 현실에서 우리는 전제의 풍부한 맥락에 집중하지, 양적인 수치에만 집착하지 않는다. 예를 들어 이주노동자가 내는 세금뿐만 아니라, 그들의 삶의 스토리텔링에도 주목한다. 반대로 우리가 그런 맥락적 기반 없이 알고리즘에 의해 “건보혜택 받는 중국인 71만명, 외국인 중 ‘최다’…결국 적자 행진”3이라는 자극적인 타이틀에만 노출된다면 자연스럽게 양적인 것에 집중하게 될 것이다. 질과 양의 균형을 잃고, 양을 신봉하게 되면 자신을 도구적 이성으로 기만하게 된다. 그래서 우리는 합의의 질에 좀 더 집중할 필요가 있다. 또 합의는 수렴이 아니라 타협이다. 베이지안주의적으로 생각하면 우리는 서로 다른 신념 때문에 차연처럼 동일한 정보를 동일하게 인식할 수 없다. 무페의 아이디어를 빌리자면, 우리는 항상 상대와 적대적 긴장 관계를 유지하며 경합적으로 타협한다. 따라서 합의에서 수렴을 유도하는 단수화된 알고리즘은 합의라기 보다는 강요에 가깝다. 알고리즘은 얼핏 보면 양방향 상호작용으로 보이고, 실제로도 그렇지만 우리가 끼치는 영향력은 제한적이기 때문이다. 예를 들어 한 명은 하나의 ‘좋아요’만 추가할 수 있다는 규칙 속에서, 나의 의견은 수많은 사람들의 양적 의사에 묻혀 결코 제대로 말할 수 없다.

질과 양을 논하면서 정작 무슨 차이가 있는지 해명하지 않았다. 우리는 흔히 경험을 질적이라 하고, 그 경험에서 추출한 정보를 양이라고 한다. 경험은 통계학의 사건과 같이 특정한 인간 관찰자를 가정하는 게 아니라, 화이트헤드의 사건과 같이 모든 객체가 상호적으로 수행하는 것이다. 이러한 확장된 정의에서 양과 질은 동일한 원인에서, 단지 복잡성이 다른 것이다. 둘은 그 정도가 다른 것이지 근본적인 차이가 있는 것은 아니다. 예를 들어 인간의 경험은 위상의 다원성과 물리적 처리능력의 한계 속에서 이뤄진다. 인공지능이라고 다른 것은 아니다. 인공지능도 동일한 조건 아래 지금까지는 우리가 양이라고 부르는 질의 열화판을 처리할 수 있을 뿐이다. 황색망사점균은 이 논증에 관한 흥미로운 예시다4. 우리가 여기서 인간의 능력이 무언가 초월적으로 더 우월하다고 주장하는 것은 아우라와 같이 복제 불가능한 것의 희소성을 통한 가치 부여일 뿐이다.

이러한 주장을 뒷받침하는 물리학적 논의는 울프람의 계산적 우주(Computational universe) 가설이다. 우주를 셀룰러 오토마타 즉 국지적 규칙의 누적된 계산으로 설명할 수 있다는 이 가설은, 기존의 복잡한 물리학 이론을 몇 가지 단순한 규칙의 반복으로 설명할 수 있다고 본다. 국소적 인과성을 가정하면 빛보다 빠른 정보는 불가능하므로 전체 시스템의 상호작용이 불가능하다. 대조적으로 오토마타는 기본적으로 이전 상태에 의존적인 상태 변경 기계라는 점이 양자역학과 만나는 흥미로운 지점이다. 러셀이 말했듯이 고전 물리학이 시간 대칭적인 인과관계 없는 함수적 관계를 중시했다면, 오토마타는 열역학 2 법칙과 유사한 시간 비가역적 상태 변화를 암시한다. 이는 강력과 약력에서의 CP 비대칭 등 다른 연구와도 조응한다. 이 이론에 따르면 로렌츠 불변 위에서 작동하는 다른 모든 것도 근본적으로 컴퓨팅이다. 실제로 Rule 110이라고도 불리는 간단한 규칙만으로 이론상 모든 보편 계산이 수행 가능하다는 것이 증명됐다. 즉 질의 복잡성은 단순한 규칙이 양적으로 누적되어 만들어진 결과물일 뿐인 것이다. 물론 이것은 질과 양의 연속성에 대한 하나의 증거이지, 물리적 환원주의를 주장하려는 것은 아니다. 철학적 전통에서도 이러한 증거를 충분히 찾을 수 있으나 알고리즘 편향이라는 다학제적 담론에서는 이런 다양한 시도를 해야만 한다고 생각한다.

위의 가정을 통해 존재론적 분석의 우위를 다른 방식으로 변호할 수 있다. 정보가 의미를 지니려면 일정 이상의 연속적인 복잡성이 요구된다. 또 그것이 무한히 확장되면 자연적으로 정규분포로 수렴하기 때문에 더 이상 정보가 아니게 된다. 즉, 우리가 동일한 시간 선에서 인식할 수 있는 정보는 이 사이로 제한되어 있다. 코지크는 우리가 화폐를 사용하여 대단히 복잡한 거래를 수행하지만, 화폐가 무엇인지는 알지 못하며 알 필요도 없다고 말했다. 비슷하게 우리가 활용하는 모든 정보는 인지적으로 제한되어야 비로소 가치를 가진다. 몸이라는 제한이 없다면 우리의 다원성은 심각하게 제한될 것이다. 따라서 우리가 접하는 정보의 연접면에서 발생하는 실용적인 일시적 상호작용에서 본체를 파악하기란 어렵다. 또 이런 인포스피어 내에서 인식론으로만 알고리즘을 설명하는 것은 불합리하다. 따라서 우리가 의도적으로 행위를 위임하려고 개발한 컴퓨팅 기술에서 인식론적 접근을 한다는 것은 모순이다. 뒤피가 정보기술에 대한 문제들이 이들 발전의 궁극적 결과에 대한 우리의 무지에 따라 인식론적으로 잘못 해석되었다고 한 것처럼 말이다. 가장 결정적인 근거는 알고리즘을 하나의 존재론적 행위자라고 가정하면 블랙박스적 특성을 자연스럽게 설명할 수 있다는 것이다.

양과 질은 정도의 차이고, 우리는 더 복잡하게 상호작용을 할 필요가 있다. 책임의 주체를 우리로 다시 되돌리기 위해 우리는 더 복잡해져야 한다. 알고리즘의 질적 가능성을 완전히 배제하는 것은 아니다. 다만 우리가 단순성을 핑계로 책임을 점점 더 알고리즘에 위임하는 것이 아닌지 고민해 봐야 한다. 세계의 풍부한 다원성을 알고리즘으로 제약해서는 안 된다. 단순성으로부터의 회귀는 우리의 양과 질의 연속적 공동-존재의 맥락과 연결성을 약화하기 때문에 피해야 한다. 하지만 우리는 압축 사회에 살고 있다. 압축 사회에서는 우리의 맥락이 축소되고 결국 우리의 존재론적 지위도 희미해진다. 뛰어놀면서 세계와 연결되는 게 아니라, 스마트폰만 바라본다면 준평형 상태였던 우리와 세계의 접촉 면적이 줄어들며 나의 존재 자체가 위협받는다. 스마트폰이 나를 압축함으로써 더 강한 존재론적 권력을 쥐게 되는 것이다. 효율적인 압축이 가능해지려면 차이의 간격이 좁아야 한다. 따라서 우리가 이런 재생산을 탈구하기 위해서는 획일화된 소비사회에서 차이의 진폭을 늘려야 한다. 들뢰즈의 ‘다원주의 = 일원주의’ 공식의 역설이 여기에도 적용된다. 우리가 더 관계적이려면 우리가 더 단수적이어야 한다.


2025.10.17

기존에 주장했던 흄에 대한 해석이 일반적(=is-ought)이지 않은 해석임을 인정하고 그 부분을 수정했습니다. 제가 원래 의도했던 것은 사실과 가치의 얽힘 논쟁의 원류가 흄에 의해서 출발했고, 흄 또한 몇몇 저작에서 그것을 의식하는 태도를 보였기 때문에 도발적으로 첫 문단에서 이야기해 본 것이었습니다. 하지만, 이 부분이 전체 논증에서 차지하는 역할이 매우 적음에도 허수아비가 되는 경우가 많아 수정했습니다. 또 물리적 환원주의에 대한 비판을 예상하고 몇몇 구절을 추가했습니다. 이 글은 알고리듬의 편향성에 관한 논의를 여러 관점에서 느슨하게 연결하여, 리좀적 충돌 지점을 조명하기 위함입니다. 그러니까 완결된 결론이 아니라 살아있는 텍스트로서 마음껏 오독하고 즐겨주세요!


  1. 여기서 이야기하는 알고리즘은 인공지능을 포함한 정보서비스에 관련된 알고리즘에 초점을 맞추고 있다. 포괄적 의미의 알고리즘을 논하고자 하는 게 아니다. ↩︎

  2. Opus, C., and A. Lawsen. 2025. “Comment on The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.” arXiv. https://doi.org/10.48550/arXiv.2506.09250↩︎

  3. 아시아경제. 2025. “건보혜택 받는 중국인 71만명, 외국인 중 ’최다’…결국 적자 행진.” January 26. https://www.asiae.co.kr/article/2025012617552973681. 기사를 찾기 시작한 지 30초도 되지 않아서 바로 적합한 기사를 발견했다. 자극적인 기사 타이틀은 매우 만들기 쉽다. 공적인 사실에 숫자를 덧붙이면 된다. 예를 들어 정부 지원 사업 000개 파산. ↩︎

  4. Beekman, Madeleine, and Tanya Latty. 2015. “Brainless but Multi-Headed: Decision Making by the Acellular Slime Mould Physarum Polycephalum.” Journal of Molecular Biology, Cooperative Behaviour in Microbial Communities, vol. 427 (23): 3734–43. https://doi.org/10.1016/j.jmb.2015.07.007↩︎