Wikipediaは本当に正しいのか? その正確性と客観性を守るものは…
わからなかったら、とりあえずWikipedia。
小学生からビジネスマンまで、みんなそうなりつつある。
私が小学生の頃は、本棚の半分が埋まる百科事典。中学生くらいの頃に、超分厚い『imidas』が出てきて、最新情報がなんでも書いてある、究極にかっこいいバイブルに思えた。
それが、今ではWikipedia。
中立で正確なイメージがあるが、ネットの情報は玉石混交すぎて、そのWikipediaの正確性も、本当のところはわからない。
行われ続けるリンク切れの修復
インターネット上のあらゆる情報を保存することを目指すインターネット・アーカイブが、Wikipediaに書かれた情報の客観性を確保し検証可能な状態に保つために、リンク切れとなったURLリンクを修復する作業を行っています。
誰でも編集可能なWikipediaでは、情報の正確性を確保するため、URLなどを特定する形で情報源を記し、第三者が検証できるようにすることが要求されています。
しかし、情報源となったソースのウェブページが何らかの事情で事後的に閉鎖され、「404」エラーページが返される「壊れたリンク」になるということは珍しくなく、リンク切れに伴う情報源の消失によって、Wikipediaの内容の正確性・客観性が損なわれる事態を招いています。
そこで、インターネット・アーカイブでは、Wikipediaコミュニティで「Cyberpower」という異名で知られ、インターネット・アーカイブのコンサルタントを務めるマクシミリアン・ドゥーアー氏と、同じくWikipediaコミュニティで長らく記事編集ボランティアに携わるステファン・バルバック氏の2人と協力して、Wikipediaのリンク切れページを探し出し、すぐさまインターネット・アーカイブの保存するバックアップページへのリンクに差し替えるプログラムを開発し、運用しています。
インターネット・アーカイブの保存ページには、消失する前の情報が残っています。この以前のページにリダイレクトすることで、たとえ情報源が失われても、Wikipediaユーザーは内容を確認して検証することができるというわけです。
さらりと書いてあるが、Wikipedia上の情報だけでも膨大なのに、そこにリンクされたサイトのバックアップまで取っておくというのは、ビル何棟分のサーバーが必要になるのだろうか。
リンク修復までの手順
①インターネット・アーカイブによって開発されたソフトウェア「IABot」は、404エラーを返す「壊れたリンク」を22言語の各Wikipediaで探します。
②リンク切れが見つかると、IABotはWayback Machineなどに保存されているリンク切れページを検索します。
③その後、リンク切れを起こしたURLは、インターネット・アーカイブ側に保存されたページへのリンクに差し替えられ、
④Wikipediaの検証可能性を維持するという仕組みが取り入れられています。
これを全自動化しているというのは、賞賛に値する。
だが、ひとつ。
元々貼られていたリンクがテキトーだった場合は、そのテキトーなサイトに再度飛ばされるわけで。
リンク先の情報の正確性は、誰が確認し、保証してくれるのだろう。
新たなこの謎は、Wikipediaに聞けば、答えてもらえるのだろうか。