風
 
 
 
 
 
 
[知ることの価値と楽しさを求める人のために 連想出版がつくるWEB マガジン
Googleはすべてを集めてはいない!膨張するネット検索の歴史と落とし穴
ものを調べたり、何かを知りたいと思ったとき、以前は新聞や書籍にあたることが多かったが、いまや、まずはインターネットで検索するようになった。Webページをたどれば、必要な情報の多くが手に入るほど便利になった。しかし、その反面、この情報を無批判に鵜呑みにしてはいないだろうか。そもそもWebページの検索はどう して生まれ、どのようにしてここまで拡大したのか。また、Googleなどの検索エンジンの仕組みはどうなっているのか、万能とも思える検索に落とし穴や問題はないのか。国立情報学研究所教授であり、本誌発行人でもある高野明彦がこうした問題について答える。
1
1. Webページが普及したきっかけ—ネットスケープの登場
2. 世界みんなのリンク集「Yahoo!」誕生
3. ビル・ゲイツはインターネットをバカにしていた!
1
Webページが普及したきっかけ—ネットスケープの登場
――
いまでは“ものを調べる”ときに、インターネットは欠かせないものになってきていますが、いつごろからインターネットがこうした用途で使われるようになったのでしょうか?
高野
 まず、インターネットというのは、インフラとしての“線”のことを言うので、正確にはWorld Wide Web、略してWWWといわれるもので調べるわけですね。不特定多数に向けて、この“Webページ”が公開されたのは、1993年くらいです。最初は無料のブラウザ「NCSA Mosaic(モザイク)」というソフトウェアが使われました。イリノイ大学に所属していたマーク・アンドリーセンらによって開発されたWebブラウザですが、使っていたのは大学の研究者たちが中心です。
  Webページの仕組み自体は、スイスにあるセルン(CERN:ヨーロッパ合同原子核研究機構)での、高エネルギー物理学の国際的な共同研究における情報交換の目的で開発されたのがはじめです。その時は、もちろん研究者の利用に限られていた。もともとファイル共有のしくみとしては、今でも使われているFTP()やGopherなどがありましたが、あまり流行りませんでした。なぜなら、FTPは、共有のためのドキュメント箱をネットワーク上に置いた感じで、ファイル名の一覧としてしか見えない。「こういうファイルをどこそこに置いていますので、そこからダウンロードして下さい」ということをメールなどで連絡して、情報の共有をはかっていました。
  それに対してWebページでは、ファイルのリストだけでなくて、最初は簡易なものでしたが、写真を入れたり、色を付けたり、フォントを変えるなど、ページレイアウト的要素を加味できました。「これはすごいぞ、将来性がある」と考えたのがジム・クラークです。当時、シリコングラフィックス社(SGI)の会長だった彼は、アンドリーセンを引き抜いて、モザイク・コミュニケーションズ社を創業。後にネットスケープ・コミュニケーションズ社と名前を変えて、1994年に最初の商用ブラウザである「Netscape(ネットスケープ)」を提供しました。ベータ版を無償配布して、最初の製品版はシェアウェアとして販売されました。ネットスケープの普及によって、インターネットに接続していれば、誰でもWebページを見られるようになりました。
  とはいえ、最初は公開されているページがあまりなかったんですが。

FTP:インターネットなどでファイルを転送するときの方法のひとつ。
――
それはだいたい何年くらいのことでしょうか?
高野
 アメリカでは1994〜1995年くらいですね。まだ日本ではインターネットという言葉が一般的ではない時期でしょうか。
<< PAGE TOP
2
世界みんなのリンク集「Yahoo!」誕生
――
「ネットスケープ」の登場がインターネット普及の第一段階だとすると、次の段階はどういうことになりますか?
高野
 「ネットスケープ」のおかげで、Webサイトが爆発的に増えちゃった。だから今度は、欲しい情報があるのに、なかなかそこにたどり着けない、探せないという状態になっていきました。そこで、“世界のみんなが使えるリンク集”を作ろうじゃないかという目的でできたのが、スタンフォード大学の大学院生だったデビッド・ファイロとジェリー・ヤンによる「Yahoo!」です。
  あらかじめ整理されたカテゴリが出ていて、たどっていくと最後にリンク集が出る。そういうWebディレクトリとして始められました。それは、今のようなWebページを検索するという思想ではなく、人手をかけてみんなが楽しめるリンク集を提供しようという発想でした。
  ところが、発信されているWebページがどんどん増えてくると、手に負えなくなる。今でも続けていると思うけど、100人単位の人が毎日、自分でネットサーフィンして有用なページを見付けては登録したり、ユーザーから紹介されたページを登録したりの繰り返し。そういう努力を続けて、かなり信用度の高いWebページが整理されていくという意味ではとても有効なコンテンツを提供できる訳ですが、みんなにとっては重要でないけれど、自分は欲しいと思う情報というのが排除されてしまう危険性があった。

  そこで生まれたのが、インターネット全体をデータベースとして扱えないだろうかという発想でした。データベースというのは、特定の情報を決まったフォーマットで登録していって、それを検索できるシステム。それをWebページに適用できないかと。しかし、Webページには共通の構造なんて仮定できない。また、どうやってWebページを集めればいいか。自前のサーバに入っているデータであれば、その構造は分かるけれど、他の人が管理しているサーバに登録されているWebページをもカバーしないといけない。
  そうした問題を最初に解決した検索エンジンが、アルタビスタ()。Webページをすべてテキストとして考え、その全文をキーワードで検索できるエンジンを開発したのです。当初は、DEC社が自分たちのハイエンドのマシンの能力を証明するために、指定したキーワードを含むWebページを検索し、結果を瞬時に出してみせましょうというサービスだったのですが、アルタビスタがすごいのは、自分とは全く関係のないサーバもカバーして検索できたこと。世界のいたるところに、当時でも数百万台のサーバがあったわけですが、そうしたサーバをすべてカバーするスケールで、全文検索ができたのがアルタビスタなんです。そして、このアルタビスタに影響されて、検索サイトを開発、運営するベンチャーが1996年くらいにどんどん立ち上がった。今もあるエキサイトなんかもその時期にできた企業ですね。

アルタビスタ(AltaVista):1995年にルイス・モニエルとマイク・バローズ、DEC社(ディジタル・イクイップメント・コーポレーション)の研究所に所属していた情報工学者ポール・フラハーティらが中心となって開発し、同年12月に公開された検索エンジン。
――
それは、アルタビスタでキーワード検索できるWebサイトが、たくさん公開されたということですか?
高野
 いや、サイトがというよりも、検索エンジンがたくさん開発された。今の検索エンジンの原形はすべてその時期にありました。私なんかは検索技術についてはそこで勝負がついたと思ったくらいです。もう検索エンジンを開発しても、それは二番煎じでしかないとね。
 とは言え、検索エンジンには、まず無数にあるWebページを効率よく大量に集めるという技術と、集めたページから必要な情報をすばやく探しだすという技術の2つが必要です。ですから、そのどちらか一方が強いという会社が出てくる。例えばアメリカのインクトミ社。Webページを集めるのはロボットとかクローラーと呼ばれるプログラムですが、していることは、そのプログラムがネットサーフィンをどんどん自動的にやっている感じです。そのいちばん大きく効率のよいのを持っていたのが、1999年くらいではインクトミでした。インクトミは自社ではサイトを運営せずに、自前のその検索エンジン技術を他社に提供して成功した。検索が速いという技術と、集める範囲が広いという技術。その両者のバランスがとれていることが重要で、集める技術が苦手なら、その部分は他社から買って運営をするところもありました。結局、今では検索技術だけを売り物にする会社は数社しか残っていないのですけどね。
<< PAGE TOP
3
ビル・ゲイツはインターネットをバカにしていた!
――
その頃のマイクロソフトは、この分野ではどういう動きをしていんですか?
高野
 まだ一般のユーザーは、インターネットの仕組みも分からないし、World Wide Webを知らない。そんなとき、Windows95が発売されて、パソコン・ブームがやってきました。パソコンを買ったら、インターネット・エクスプローラ(IE)というブラウザが付いていて、それを立ち上げると何やらページが現われる。これが普通の人のWorld Wide Web初体験だったと思います。最初に出てくるページはパソコンを売る会社が設定している訳ですが、日本ではほとんどYahoo! でしたね。だから、インターネットと言えばYahoo!のことだと思っている人が今でも結構いる。最初に立ち上げるページを変えることができるというだけで「へぇー」と言う反応を示す人も多い。
  そうした最初のページに広告が出ていれば、その広告はぜったい見るわけだし、それが商品だったら、そこから買おうとしますよね。ですから、検索技術についてはアルタビスタやインクトミで勝負がついたけれど、一般の人がブラウザで最初に見るページをどうやって獲得するかということに関心が移るわけです。それで「ポータルサイト()を押さえたものがインターネットを制する」という発想になった。その時はまだ、検索機能は付属品扱い。ポータル運営者は、ポータルとして何をパッケージすればいちばん見てもらえるかを考えて、検索エンジンも付いています、という感じだったのです。

ポータルサイト:Webページにアクセスするときの入口となるサイトのこと。現在、検索エンジン、ウェブディレクトリ(リンク集)、ニュース、天気予報、オークションなどのサービスを提供し、利用者の便宜を図っている。
――
ブラウザ業界の動きはどうだったのでしょう?
高野
 IEの一人勝ちになりました。もともとビル・ゲイツは、「インターネットなんて大した役には立たない」と言っていました。「あんなもので、どんな仕事ができるのか? ワープロもスプレッドシート(表計算)もすべて、マイクロソフトが押さえているじゃないか」ってね。マイクロソフトがよく批判されるのは、ネットスケープの成功を見てから急に考えを変え、Windows95にIEを無償添付してそのシェアを完全に奪ってしまったからです。ユーザーはOSが“標準”でインターネットに対応したことに飛びついたわけです。そしてそれが、それまでインターネットを知らなかった一般の人たちへもアピールとなった。「なにか世界中の情報が一気に見られるらしい」と。その魅力は大きかったと思いますね。
  そして、マイクロソフトはIEの技術に、+αのルールをどんどん入れていくんです。IEできれいに見えるように作ると、ネットスケープではレイアウトが崩れる。htmlはもちろん世界共通の言語なんですよ。しかし、その+αの部分、面白い機能をカスタムで追加する部分を独自に作っていく。IEだと、音楽が聞けるのに、ネットスケープでは聞けないとか。そういう独自仕様を戦略的に取り入れて、ネットスケープを非互換にしていきました。そして結局は、OSのシェアを反映する形でIEが一人勝ちになっちゃったわけです。だから、そうした背景を知っている専門家には「意地でもマイクロソフトなんか使ってやるか!」というアンチ・マイクロソフトの人が多いんですね(笑)。
<< PAGE TOP
1 2
PROFILE

高野 明彦

1956年生まれ。国立情報学研究所連想情報学研究センター長・教授。専門は、連想の情報学。研究成果のGETAを活用して「連想する情報サービス」の構築に情熱を燃やしている。
 
<< PAGE TOP
Copyright(C) Association Press. All Rights Reserved.
著作権及びリンクについて