【AI考】”データイズム” 議論に潜むイデオロギー的誘導
本ブログでは以下のように数本、ハラリ氏のAI論、未来社会論を紹介してきた。
今回はありうべき誤解を解くために、ハラリ氏の “データイズム” 議論に対する反論を紹介してみたい。
講演紹介の意図
ブログ主はハラリ氏の所論に100%与する者ではない、ではなぜ取り上げたか?
- まず読み物として面白い。その学問的価値は別にして、大なたを振るう彼の議論は刺激的だし、上質な知的エンタメになっている。
- 第二に、彼の物事をひっくり返して考える発想やものの見方はユダヤ系知識人の典型を示している。
- たとえば、彼は農耕社会を、人間を土地に縛り、人間の自由な時間を奪うシステムだといっている。それがマルクスの労働価値説に結びつき、資本主義否定の根底にもなった、と。いかにもノマド出身のユダヤ人らしい発想ではないか。
- 彼はまた歴史は人間の共有する壮大な虚構(ストーリー)だと主張し、その代表として宗教と貨幣をとりあげる。どちらも社会が虚構を受け入れ共有することなしに成り立たない、と。大筋で正しいではないか。
- こういう考え方は西洋ではおなじみのものであり、メインストリームでさえあるから英語サイトとして取り上げる価値は高いと判断したのである。ハラリ氏の議論に接することで、「ああ、西洋ではこういう考えがメインストリームとして受け入れられるんだな」という感覚をつかんでもらえるではないか。
- 第三に、通史を前提にした未来論なので、時系列を無視した議論よりはるかに射程が広い。そういう大きな視野の中で「日本」について考えるよい教材になると考えた。
ブログ主は、ハラリ氏の講演を読んだ訪問者が、彼のAI議論やデータイズム議論をそのままお説ごもっともと受け取る恐れはないと思っている。かといってハラリ氏の所論を頭ごなしに否定することもないはずだ。それだけの説得力をもっているからだ。
つまり、彼の未来論を読み、冷静かつ批判的に考えるきっかけにしてもらえば、「英語とつきあう」ための知的武装という当サイトの所期の目的は達せられるのである。
ダーウィン進化論からデータイズムへ:テクノ宗教は議会民主制に引導を渡すのか?
前置きが長くなったが、ここからは “データイズム” への反論記事をお読みいただこう。
Science fiction writers have long understood that when tyranny comes it often is introduced as some improvement, or as the correction of some perceived problem. C.S. Lewis, for example, warned of the therapeutic state that wants what is best for us, whether we ask for it or not. It starts as science, becomes scientism, then demands obedience.
SF作家の伝統的理解では、専制政治は何らかの改良に端を発し、周知された問題の解決策として現れる。C.S.ルイスが「治療国家」について警告したように、最善を要求する科学は人々が望む望まないに関係なく治療を行う。最初は科学だったものが科学主義となり、しまいには科学への隷従に至る。
コモンズの財としての人間
Jeremy Rifkin is a philosopher of Big Data in our own time who has a Marxist view of human good, organized in the “Commons,” whose space, according to his book The Zero Marginal Cost Society: The Internet of Things, the Collaborative Commons, and the Eclipse of Capitalism, is “more basic than both business and the market.”
He writes that “The very purpose of the new technological platform is to encourage a sharing culture, which is what the Commons is all about.”
There is not much privacy or individualism left in this Commons, however. In the future, there may not be much left of old-fashioned elites (or much need for politicians), but there definitely will be wise, all-knowing techno-elites.The old world will give way to a “stream of Big Data on the comings and goings of society that can be accessed and shared collaboratively…processed with advanced analytics, transformed into productive algorithms, and programmed into automated systems.”
ビッグデータの哲学者であるジェレミー・リフキン(Jeremy Rifkin)は、人間をコモンズというカテゴリーに編成された財と見なすマルクス主義者だが、コモンズの領域が「ビジネスや市場より基本的」になっていると述べ、こう続ける。「新しい技術プラットフォームの最大の目的はシェア文化の奨励にあり、それこそがまさにコモンズの意味である」。
リフキンによれば、このコモンズにおいてプライバシーや個人主義に残された余地はあまりなく、旧来のエリート層が将来やるべき仕事も多くない。政治家の必要性も減る。その代り、全治の賢い一握りのテクノ・エリートが活躍することになるのだという。
旧世界は「社会の動向に関するビッグデータのストリーム」に道を譲ることになる。(そのようなビッグデータは)「先進の分析技術で処理され、生産的アルゴリズムに変換され、自動化システムにプログラミングされており、社会全体でアクセス・共有可能である」。
ハラリのデータイズム
A similar vision is offered by an Israeli advocate of artificial intelligence (AI), Yuval Noah Harari, who supposes that science is showing the uselessness of inherited biology and traditional human roles. His book, Homo Deus, is steeped in Darwinism and what he understands to be Alan Turing’s information theory.
Like Marx announcing in the 19th century that the next phase of the industrial revolution would make capitalism obsolete, Hariri sees AI creating a new human being independent of our present economy. “Science is converging,” he proclaims, “on an all-encompassing dogma, which says that organisms are algorithms and life is data processing…Intelligence is decoupling from consciousness…Non-conscious but highly intelligent algorithms may soon know us better that we know ourselves.”
He candidly acknowledges that the system is a “techno-religion” he calls “Dataism.” It replaces religion and “venerates neither gods nor man — it worships data.” Says Hariri, “Political scientists increasingly interpret political structures as data-processing systems.”
イスラエルのAI主唱者ユヴァル・ハラリ(Yuval Noah Harari)も同様の見方を示す。ハラリによると、科学が生物学的な遺伝や伝統的な人間の役割を無用にするという。『ホモ・デウス』全編が、ダーウィニズムと、彼自身のアラン・チューリング情報理論に対する理解に満たされている。
19世紀マルクスは、産業革命が次の段階に移行すれば資本主義は時代遅れになると宣言した。それと同様にハラリは、AIが現在の経済体制に関係なく新たなタイプの人間を生むと見る。 「科学の包括的ドグマは、生物とはアルゴリズムであり、人生とはデータ処理であるという一点に収束しつつある」「・・・知能は意識から切り離されようとしており、・・・意識を持たない極めて知的なアルゴリズムが、人間を人間以上によく知る時代がやって来るだろう」。
このような近未来をハラリはずばり「データイズム」の時代と呼び、それが既成の宗教に代わる「テクノ宗教」なのだと規定する。「(テクノ宗教は)神も人も敬わない。ただデータを崇拝する」。したがって「政治科学の専門家は、政体をデータ処理系と見なす傾向が強まる」。
彼らの議論は現代社会の一面を言い当てている
Yes, they do that, which is part of our problem. If an algorithm already knows what we think, want and need, why bother with politicians or representative government? Hariri seems to agree. “This implies that as data-processing conditions change again in the 21st century, democracy might decline and even disappear.”
And you’ll love it. “[P]eople want to be part of [this] data flow, even if that means giving up their privacy, their autonomy and their individuality.”
Maybe. Some people already seem eager to surrender to their smart phones. But Marxist ways of seeing technological change often fall apart with experience. So, let the utopias of Rifkin and Hariri — or the dystopias they would become — gestate as they will. Most of us will be turned off by the prospect.
確かに政治分析にそういう傾向はある。実際、それは現代の問題のひとつである。アルゴリズムで人間の考えやニーズがわかるなら、政治家や議会政治は必要だろうか?ハラリなら要らないというのではないか。「21世紀にデータ処理の条件が再度変化した場合、民主主義が衰退するか、極端な場合、消滅する可能性を示唆している」。
それは歓迎される事態なのだ。「人々はデータの流れに身を任せたいと感じるだろう。たとえプライバシーや自律性や個人を犠牲にすることになっても」。
そうかもしれない。実際、もうスマートフォンに “自分” を預けた人もいる。しかし、マルクス主義者の技術的変化に関する見方は、ほぼ現実に裏切られる。リフキンやハラリのいうユートピアは本当に来るのか、それともディストピアに転じてしまうのか、事の成り行きに任せよう。将来、たいていの人はこうした展望に鼻白む思いをするに違いない。
それでも人々は代表民主制を手放さないだろう
I don’t think that people, upon reflection, will give their political power to an algorithm, even one disguised as progress. The Dataism future should be seen as cautionary, not predictive.
The danger of losing representative democracy to techno-religion might be just the jolt needed to restore our defense of it. It should warn us to cast a sharp eye on short-term but unsavory trends now underway and leading our society in the wrong direction.
どんなにアルゴリズムが進歩を偽装しても、人は慎重に考え、自分たちの政治的力をデータイズムに明け渡すことはないと思う。データイズムの未来は予測するものではなく、注意深く対処すべきものである。
代表民主制がテクノ宗教に敗北する危険性があるなら、それは民主主義を取り戻すためのショック療法の一種なのではないか。一時的に不愉快なトレンドが進行しているのは確かだ。そうであれば、それを厳しく監視して、社会が間違った方向に向かわないように気を付ければいいだけだ。
ネット匿名民主主義の危険性
In a political order, affinity groups help the politician think through public issues.
But we now have some anti-democratic groups whose interests were ignored in the bad old days of news dominance by newspapers and broadcasters who can find in the Internet useful ways to organize in relative secrecy.
Real and fraudulent Internet outfits that traffic in sleazy speculation have found ways to get stories into the mainstream, partly by seducing hit-lusting advertisers. In the past, scrupulous editors screened out the smears, incendiary provocations, and smut. Instead, political news now freely spirals downward.
政治の世界で、政治家はアフィニティ・グループ(※共通利害に基づく水平的な行動集団)の助けを借りて、俯瞰的に公共問題を考えることができる。
しかし現在、あまり個人情報を明かす必要がないインターネットの特性を活用した非民主的なグループがいくつか生まれている。こうしたグループに属する人々は、既成メディアがニュースを独占した過去のひどい時代に、自分たちが無視されたと感じている。
実体組織があるないに関わらず、底の浅い投機心に満たされたサイトが陸続と生まれ、ヒットを稼ぎたい広告主を集めてはメインストリームに記事を流す手法が定着している。昔なら用心深い編集者がいて、誹謗中傷、扇情的挑発、ゴミネタの類はあらかじめふるいにかけていたが、現代の政治ニュースはフリーハンドで下流に溢れ出していく。
An imminent threat to civil politics could be the depersonalization of public meetings held over the Internet. Face-to-face encounters, where people use their own names, are generally polite. Knowing who is in a meeting — and knowing in return that one is known — conduces to mutual toleration and respect.
But in a virtual community, a “believability meter” could easily be replicated, with “instant feedback” from Internet attendees, destroying a candidate before he has even finished his remarks, and encouraging other candidates to appeal to superficial and heated sentiments.
In a blunt assessment from another context, Publius (Madison) warns us, “Had every Athenian citizen been a Socrates, every Athenian assembly would still have been a mob.” Today it can be a cyber-mob. And history teaches that violence and anarchy — the mob — lead to crises of authority and, then, tyranny.
市民政治に差し迫った脅威は、インターネット上の匿名公開会議かもしれない。人々が本名で対面する場は一般に礼儀正しい。会議の参加者がお互いに誰が参加しているかを知っている場合、参加者はそれなりの敬意と寛容をもって話し合う。
しかし、バーチャルなコミュニティーでは「信頼度メーター」など簡単に複製できるし、ネット参加者の「即時フィードバック」が、誰かの発言を途中で遮ることもありえる。他の発言者は、表層的で熱しやすいセンチメントに媚びた発言をするかもしれない。
これとは別の文脈においてだが、ジェームズ・マディソンは「パブリアス」論文で、ある政争に関して忌憚のない評価を下し、「アテネ市民が全員ソクラテスであったら、アテネの集会はどこも暴徒の群れと化していたろう」と警告した。現在のネット公開会議はさしずめ「サイバー暴徒」だ。暴力と無秩序(すなわち暴徒)は権威の危機、ひいては専制政治の台頭につながるというのが歴史の教えるところである。
アメリカの有名な政治論文集。以下、Wikipediaより引用:『ザ・フェデラリスト』は、憲法で提案されている政府の仕組みについての哲学や動機を明確で説得力有る文章で綴られているために、現在でもアメリカ合衆国憲法の解釈では一次資料であり続けている。
代表民主制は結局、地元の人間関係を基盤とする
Most of our cherished democratic institutions, after all, assume personal encounters at some point, and our system seems to work best when those circumstances are maintained, such as the localities where parties still function and people turn out for a “candidate’s night.”
Our traditional sense of community is rooted in geographical identities and the same kind of local loyalties that, for example, support a specific high school basketball team rather than some national association of basketball fans.
Our representative democracy presupposes the shared and particular interests of specific places, not an attachment to uncommon and dispersed special interests or to abstract opinion — let alone to an algorithm.
長い時間をかけて醸成された民主的組織は、ある時点で個人と個人が直接向き合うことを前提としている。民主制は人と人が会う環境が保たれている場合に、最もよく機能するからだ。たとえば、「候補者と集う会」などの催しに人々が出かける地方なら、政党政治は正常に機能するだろう。
人間の共同体感覚は地理的な結びつきに根差している。地元に愛着があるから、NBAのチームよりも、地方高校のバスケチームを応援するのである。
代表民主制の大前提は特定の土地の共通利益を実現することにある。地域の結びつきもなく面識もない人々の特定の利害や抽象的な意見を押し通すことにはない。ましてやアルゴリズムを忖度することなどありえない。
The dangers of assigning superior moral worth to “Big Data” and AI should be obvious by now. Their connections to the ideologies of Darwinism and Marxism also should be manifest, even if much of the academic community conspires to hide them.
以上で、いわゆるビッグデータやAIに道徳的な価値判断を委ねることの危険性は理解してもらえたと思う。このような主張と、ダーウィン進化論やマルクス主義イデオロギーとのつながりも明らかになったはずだ。多くの学者はそのつながりを隠すことを画策しているが。
<記事引用終わり>
ハラリ氏は隠れマルクシストなのか?
この記事の筆者がいうように、ハラリ氏はAI推進派、隠れマルクシストなのだろうか?ブログ主にはそうは見えない。彼は単に社会科学者として歴史を冷静に分析し、あやうい動きをしそうなエリート層に警鐘を鳴らしているだけではないのか。
ただ、AIやビッグデータがマルクシストと相性がいいのは確かで、実際、中国では何年も前からデジタル・レーニズムを計画し、いまAIの顔認証技術やビッグデータ解析を通じて「計画国家」の実装を進めている。
だが、欧米や日本にそんな莫大なコストをかけてまで国民を管理するモーティベーションはあるだろうか?はなはだ疑問だ。
ハラリ氏の議論に欠けているものは何か?
学者の未来予測は当たらない。人間は人間が考えるほど合理的でないし、一枚岩でもないからだ。将来、人間がAIに取って代わられる可能性は限りなくゼロに近い。そもそも “意識” ひとつ作れない人間が、神など作れるだろうか?
しかし大事なのは予測の当否ではない。注目すべきはハラリ氏のような予測ができる知的風土、知的基盤(パラダイム)、テクノロジーを生む西洋文明の底力である。それはユダヤ・キリスト一神教文明の強みだと評価できるだろう。
これは西洋礼賛でいっているのではない。むしろ今後はそれでは不十分だといいたいのである。なぜなら、AI=神のデータイズム議論が浮上してくるほど、当の西洋人は追いつめられ、悩みは深いからだ。
AIやデータイズムは欧米人の危機意識の表れ
なぜか?神を捨てたツケが回ってきているからだ。
19世紀得意の絶頂にあった西洋人は、さっさと神を “卒業” し、理性一本で行けると信じた。ところが20世紀に入ると、その理性的なはずの世界が狂ったように1億人からの犠牲者を生んでしまった。
日本人なら “神の祟り” と考えるような災厄である。
性質は異なるが、古代日本にも同様の危機的状況があった。日本書紀に多くの不吉な出来事、天変地異が記録され、神の祟りと結びつけられている。
日本人はどうしたか?神の怒りを鎮める技術を様々なかたちで生みだしたのである。御霊神社がそうだし、密教の護摩もそうだった。そうやって徐々に祟りを制御する身の処し方を身につけていったのである。
最も重要なのは、その結果、日本人は一神教を拒むことに決め、一貫してその姿勢を崩さなかった歴史的現実である。このことの意味はことのほか重い。
捨てた神に復讐される先進国
おそらく西洋にも同じように神の怒りを鎮める知恵があったはずだ。でもヨーロッパ人は丸ごとローマコンプレックスに浸され、先祖伝来の神々を見捨てキリスト教の神になびいた。
いまや神を鎮める技術はすっかり廃れてしまって、どうしたらいいのかわからない。こればかりは優秀なユダヤ人に聞いても無駄である。彼らこそ、神の怒りに触れて祖国をなくした人々ではないか(いままた古代史を再演しようとしているが)。
仕方なくマルクシズムの劣化バージョンであるリベラリズム(あるいはネオリベ)にすがってお茶を濁してきたが、そろそろ賞味期限が来そうだし、本質的な不安(神の怒りが再発する恐怖?)は解消していない。
彼らの不安の表れこそAIであり、データイズム論なのである。伝統的に人間以外の自然を忌避する傾向の強い欧米人にとって、知性を持った機械は悪夢以外の何物でもない(それこそ、神の祟りだ)。
大上段の議論をできるのが彼らの強みであることは確かだが、同時に弱点でもあるのだ。・・・という具合に突き放した指摘をするのが、本来の日本人のつとめのはずなのだ。
ちなみに、ハラリ氏の議論の最大の盲点は、他でもないこの日本である。彼の歴史議論には日本がない。中国はあるが、中国で止まってしまう。日本という “規格外の” 文明に想像力が及ばない。日本を包括するのでなければ、真の世界史とはいえないと思う。
ディスカッション
コメント一覧
まだ、コメントがありません