Wikipedia

Wikipedia

[6] Wikipedia (ウィキペディア) は、 Wiki を使って構築された百科事典 Webサイトです。

[7] Wikipedia

記事の信憑性

[8] 一昔前はWikipediaの記事は信頼できないから云々とよく言われていましたが、 普及が進んだためなのか最近はあまり聞かなくなりました。

[9] だからといってWikipediaの記事の信憑性が劇的に改善されたかというと、 とてもそうは思えないのです。

[10] Wikipediaだからといってことさらに高く評価するでもなく、 低く評価するでもなく、 世の中に数多ある信頼できるかできないかよくわからない便利な情報源の 1つとして慎重に扱うのが健全ではないでしょうか。

[11] 関連記事: 立年改元, ソースロンダリング, Wikipediaの日時関連記事, SoftBank絵文字, 竜ノ口の法難

履歴の追跡可能性

[12] Wikipediaが使っているMediaWikiは記事の変更履歴がすべて残っていますから、 過去の記事状態が復元できるので、「ある時点ではウィキペディアにこう書いてあった」 と確かめる、ある種の証拠能力のようなものを期待してしまいます。

[13] ところが実際にはWikipediaでは記事の削除が頻繁に行われています。 削除された記事には一般の読者がアクセスできません。 (もしかすると方法はあるのかもしれませんが、 見つけられませんでした。簡単に調べることはできないようです。)

[14] 権利問題が原因で非公開にされるなら致し方ありませんが、 もっと気軽に 「記事の品質が低い」 「記事化するほど特筆性がない」 程度の理由で頻繁に削除が行われているようです。 かろうじて削除の提案が残るので、 削除されたことを知ることができます。 記事本文は削除されてしまっているので、 後からその内容を確かめることはできません。 判断の正当性も検証のしようがありません。

[15] 削除までいかなくても、ページをまたがって大規模な再編集が行われると、 履歴をたどるのが困難になることがあります。 ページ名の変更やリダイレクト化、 記事内容の他ページへの移動などが複数回繰り返されると、 限られた情報からいつごろどこにどの情報があって、 それがその後どう変化したか、 推測に推測を重ねないことにはわからなくなってしまうようです。

派生サイト

[16] Wikipediaの記事を転載しているサイトがたくさんあります。 特定の記事を手動でコピペしたブログ等もあれば、 データベースを丸ごと機械的に複製しているサイトもあります。 中には悪質な目的と推測されるものもあります。

[17] そうした複製は、ある時点での記事内容のスナップショットで、 その後のWikipedia本家の更新に追随していないことも多いです。 複数の辞書の記事内容を掲載して一括検索できるようなサイトですら、 何年も前のWikipediaのデータベースのコピーから更新されない事例が見られます。

[18] Wikipedia本家で誤情報が訂正されても、 古い情報がそのような複製サイトで垂れ流され続ける事例が散見されます。

[19] Wikipedia側の履歴で古いバージョンのコピーだと確認できるなら、 誤情報の伝播経路が確定できるのでいいですが(よくない)、 Wikipedia側で削除や編集が重ねられすぎて確認できなくなることもあります (>>13, >>15)。 Wikipediaは(良かれ悪しかれ)それだけの影響力を持つデータベースサイトになってしまっているので、 せめてその社会的責任として、 過去に発信した情報の履歴を確実に辿れるようにしてほしいのですが・・・。

[20] そのような誤情報を散布する複製サイトも悪いことばかりではありません。 Wikipediaの履歴は検索エンジンにほとんど引っかからないので、 過去にWikipediaが垂れ流していた誤情報を発見する手がかりになることも多いです。 出所がわからないデマの伝播経路の調査には役立つことがあります。

メモ

[1] スラッシュドット ジャパン | Wikipediaに「冗談で」偽投稿した男性が無職に http://slashdot.jp/articles/05/12/13/0342236.shtml (名無しさん 2005-12-13 10:17:44 +00:00)

[2] Wikipedia:Six degrees of Wikipedia - Wikipedia, the free encyclopedia ( ( 版)) http://en.wikipedia.org/wiki/Wikipedia:Six_degrees_of_Wikipedia

[3] http://dumps.wikimedia.org/jawiki/latest/jawiki-latest-pages-meta-current.xml.bz2 の日本版 Wikipedia の dump データは、2.2GBあります。 bzip2 展開すると11GBになります。

[4] Wikimedia Downloads ( ( 版)) https://dumps.wikimedia.org/

[5] How to construct full URL from Wikipedia [[File:...]] tag in wikimedia markup? - Stack Overflow ( ( 版)) http://stackoverflow.com/questions/13638579/how-to-construct-full-url-from-wikipedia-file-tag-in-wikimedia-markup