5 今後の課題
●情報の質の管理,学術情報としてauthorizeする方法
前述した学術情報をネットワーク公開した場合の業績評価の問題と表裏一体の関係にあるのが,公開された学術情報の質の高さをどうやって維持・管理するか,あるいはauthorizeするか,という問題である。
前には,業績として評価されないから,ネットワーク公開に二の足を踏んでしまう,という消極論を紹介したが,公開したとしても,評価されなければ,玉石混交のままで,まさに情報の洪水に押し流されてしまうのではないか,という不安の声もある。
しかし,生まれて間もないネットワークにそのような情報の質を管理する評価システムを期待するのは無理な話である。印刷メディアにおいてもその誕生当初から今日のようなPeer reviewシステムがあったわけではない。それは長い時間を経て少しずつ形を整えて今日の姿に至ったはずである。同じことは,ネットワークにおいてもいえるだろう。ネットワークにおける学術情報の質を維持管理する評価システムを産み出すためには,研究者皆が自分のもつ情報をネットワークを通じて一般に公開ことが先決である。本来,情報公開がまず先にあって,評価システムはその後で自ずと生まれてくるはずである。(既述したように,一般のレベルでは,ネットワーク上の情報の洪水に伴って,ランク付けをする試みがすでに始まっている)
とはいえ,繰返しになるが,一方では業績として評価されないために情報公開を躊躇している研究者がいるのもまた事実である。両者は卵と鶏の関係にあるわけで,自然発生的に学術情報の公開が増えていくのを待っていたのでは時間がかかりすぎるかも知れない。ある程度積極的に公開された学術情報を評価することによって情報公開を促す体制作りが必要であろう。
DNAデータベースの場合は,科学ジャーナルの側と連携して,論文発表の前提としてネットワークでの公開を義務づけ,そのことで世界的規模のデータベースを構築することに成功した(鵜川 1996)。これは,既存の評価システムと連携させることで素材情報の質の管理,および,そのauthorizationを可能にしているわけだが,DNA以外の素材情報にも同様な手法を適用できるものがあるかも知れない。また,実験生物の系統保存のように,学術情報をネットワーク公開していることを公的機関に申告し,それが一定の基準を満たしていれば維持管理に対して補助が受けられる,といった対応もありえるだろう。いずれにせよ,今後は様々な工夫をして,学術情報の質を管理(あるいは評価)する体制を整え,ネットワークにおける情報公開を促進していく必要がある。
● 安定性,継続性の確保
情報の質の管理とともに重要なのは,情報公開をいかに継続させるかである。ある調査(http://www.archive.org/)によると,現在インターネット上にあるURL情報は平均40〜50日程度で生まれてはすぐに消えている,という。ニュースや個人によって公開されたURLは時間経過とともに消えていくのもやむを得ないが,学術情報に関してはそうであっては困るのである。
学術情報の場合は,いかに内容が優れていても一過性であっては学術情報としての存在意義はない。そのため,学術雑誌については,図書館など公的な機関によって長期的安定的に保管され,いつでも誰にでも利用できる体制が確立している。しかし,ネットワーク上で公開される学術情報については,DNA情報は例外として,その継続性を保証するための体制作りはできていない。
公的機関によって提供されるものは,ある程度長期的に維持されることが期待できるが,ネットワーク公開される学術情報は,公的機関からのものばかりではない。寧ろ,インターネットの場合は,研究者個人(ないしグループ)の努力によって公開されている情報の方が豊富にあるといってよい。
また,先にも紹介したように,公的機関には学術標本等の資料が大量に保管されているが,実際にそれらを管理しているのは個々の研究者である場合が多い。さらに,研究者個人の手許には,表面には表れないさらに膨大な量の学術資料が眠っているはずである。なぜならば,当然のことながら,研究者こそが学術情報の生産者だからである。
誰もが情報の発信者になりうるというインターネットの性格を考えると,学術情報の発信・公開といえども,その多くは研究者個人ないし研究グループ単位で行なわれるのが中心となるはずである。そうであれば,学術情報として,それらを長期間,安定して公開を維持するためのなんらかのBackup体制作りが必要になる。
前述したように,一定の基準を満たしたものには,維持管理のための補助をするといった経済的な支援も有効だろうが,同時に,現在の印刷メディアにおける図書館のような,公開された情報そのものをBackupする組織作りも必要である。
すでに米国では(学術情報に限定しているわけではないが)インターネット上に存在するすべての情報を一定間隔で収集しデータベース化して保存していこうという大胆な試みもなされている(Internet Archive: http://www.archive.org/)。
今後は,個人が公開していた学術情報の維持管理が難しくなった場合に,その内容を引きとって公的機関が維持・管理する,といった体制作りが不可欠となろう。
● サーバの連携・統合
先に紹介したDPDDやサーチエンジンの存在からもわかるように,インターネットにおける情報公開は,その基本的仕組みからして,サーバ分散型(データの分散だけでなく機能の分散も含む)になるのが本来の姿といえる。DNAデータベースにしても,すべての配列情報の収集を目的としたサーバ以外に,各生物や研究目的ごとに情報を選別して公開しているサーバが世界各地にできつつある。
今後は,それら各地のサーバ間で互いに連絡を取り合って利用者の便宜をはかる体制作りが欠かせない。共通の目的で構築されたサーバ同士の間では,データ更新等の情報交換を効果的効率的に行なう体制作りが望まれる。
また,分散したサーバ上のデータを一体化したデータベースとして効果的に機能させるためにはサーチエンジンの存在が欠かせない。しかし,現在のサーチエンジンは,URLを無作為に収集するだけで,各URLをカテゴリィごとに仕分けしたり,URL相互の関連性をたどる機能等をもつものは少ない。
学術情報にはそれなりの評価システムが必要なことや,維持管理及び一般への公開が長期的安定的に行なわれなければ意味がないことを考慮すると,そのためのサーチエンジンも学術情報に特化したのものを開発していく必要があろう。
学術情報として一定の評価が与えられたサーバについては,その所在を学術情報専用サーチエンジンに登録し,定期的にかあるいはサーバ管理者側の要請に応じて,データを収集する体制を作ってはどうだろうか。また,データの提供者と利用者からなる研究会等を作って収集したデータをいかに分類・整理するのが望ましいかを考える必要もあろう。サーチエンジンそのものの機能をさらに進化させるための技術開発も欠かせないのは勿論である。