大量のデータが行き来している
現在、卒業研究としてリバーシプログラムの作成を行っています。
そのプログラムで使用するデータを収集するため、大量の対戦ログ(棋譜っぽいもの)を用意する必要があります。
そこで、私が行っている方法は、情報工学科が赤字状態で新しくした「デジタルラボ」の新サーバ(参照)を使用して、対戦ログを生成・収集・解析を行うというものです。
何と言っても、CPUが8コアもあるので、同時に多数のプログラムを動かすことが出来ます。とはいうものの、サーバの全CPUをフル稼働すると、T先生に怒られてしまうので、現状では6コアまで使うようにしていますw
デジラボのサーバには、次のようにアクセスしています。
自宅(もしくは研究室)PC
↓ 【リモートデスクトップ】
研究室(常時起動)PC
↓ 【puttyを使って ssh】
デジタルラボ 新サーバ
デジラボの新サーバには、外部から直接アクセスできないので、本来は旧サーバを経由してアクセスするのですが、毎回毎回旧サーバにアクセスするのがかなり面倒なので、研究室内から直接新サーバにアクセスするようにしています。この方がかなりラクです(^^♪
この作業の結果、20GB以上のデータが生成されました。
しかし、困ったことに、デジタルラボの新サーバにある空き容量不足で、これ以上の作業ができなくなってしまいました。
そこで、一度デジラボのサーバ(ローカル)から自宅のPCにデータを次のような経路で転送することにしました。
デジタルラボ 新サーバ
↓ 【ssh】
デジタルラボ ローカルマシン
↓ 【scp】
自宅 Mac mini
↓ 【ftp】
自宅P メインPC
新デジラボには、直接FTPで接続出来ないので、scpを用いて転送しています。何故か新サーバから直接自宅のMac miniにアクセスできないので、一度デジタルラボのローカルマシンにアクセスし、そこからネットワークドライブ内のデータを転送しています。
・・・かなり面倒ですが、必要なことなので仕方ありません。
そんなことを繰り返しているので、自宅とデジラボ間を数GBのデータが行き来している状態です。
最近になって、データを圧縮して転送することで、圧縮にかかる時間を考慮しても効率が多少良くなることが分かりました。
今後も、上記の作業を繰り返し、データの精度を高めていく予定です。それと同時に、リバーシプログラムの本体(Win32API + DirectX)の作成をさらに行っていきます。
研究の中核となる部分は、コンピュータの思考アルゴリズムを複数提案した上で、比較検討することなので、その段階まで早急に進めていかないと、指導教授のプラン
11月 アブストラクト作成
12月 卒論作成
を実行することは難しくなりそうです。