前章で述べたように、ここジョージアでの実験データの解析に も、いちいち日本のサーバーを利用している。具体的には取得 したデータをftpによって所沢のマシンに転送し、 tsas(psas.educhan.p.u-tokyo.ac.jp)および様々なUNIXツール によって処理した後に、sasで統計解析し、 gnuplot(ftp.dartmouth.edu)で作図している。もちろん、処理 後のデータを再度ftpで転送してPC上で作図する場合もある。 論文の作成時には、図表データはそのままLaTeX(後述)に取 り込み、ホームページの作成には jlatex2html(ftp://qed.laser.ee.es.osaka-u.ac.jp/pub/)を 用いる。これらのうちsas以外は全てPDSであり、UNIX標準配布 のもの以外はarchieによってその公開場所を探してftpで自分 のサーバーに持ってくる。なんだかめんどくさい書き方をした が、結局のところは、「自分がやりたい解析に必要なツールを インターネット上で探索して(タダで)取得する」というわけ である。
ところで、(自分の研究としては)私はやったことがないのだ が、wwwを利用してアンケート調査をすることもできる。私が 回答した事例としては、http://www.asahi.comで行っていた 「読者が選ぶ1996年度の10大ニュース」というのがあった。も し、なんらかの調査をする場合、そのようなページを自分のサー バー上に公開し、前述のツールを利用して自動的に集計される ようにすれば、即座にホームページ上で(リアルタイムで自動 に)結果を公開することもできるし、論文の中への取り込みも 容易であろう。ただし、wwwにアクセスできる人に限られると 言う意味で、「無作為抽出」には絶対にならない。