gumonji開発blogの「登山と妄想」エントリーを読んで、
お風呂で背中を洗ってるうちに妄想が広がってわくわく!(変な意味で無く
今回の登山で体験した量の情報をコンピューターシミュレーションの中で
体験するためには、何ビット程度必要なのかを考えてみました。
まず、個人的な感覚では、セルのサイズは、水平方向に対しては、
1センチよりも小さくする必要があると感じます。しかし、垂直方向に対しては、
それほど細かくする必要はないと感じました。
関係しているRingoさんのblog経由で読んだ コミュニティエンジン中嶋謙互氏が語る 究極の環境シミュレータの展望より
「ワールドシンセサイザー」のアプローチでは、その環境に重力加速度が必要ならば、それを惑星系のシミュレータから得る。生物がその環境でどういった動きをするかは生物の物理シミュレータから得て、環境シミュレートの段階ではそれらの出力を変数として使用する、といった形になる。
私の妄想の内容
「セルのサイズ」、世界の分解能も変数にしちゃったらいいんじゃないの?
仮想世界がP2Pで広がっていく、という前提のもと。
1つのPeerが、1つのPeer分の世界と他の世界との関連、を記述する処理能力と帯域以上の、処理能力と帯域を持つ、とさらに仮定。
そーすると、あまった処理能力と帯域を世界の分解能を細かくすることに避けるのでは??
参加するPeerが増えれば増えるほど世界の分解能が細かくなる、ってことになるのでは?
さらに、なんとかの法則にしたがって、年を経るほど高性能なCPUが各Peerに行き渡ることを考えれば、仮想世界は半永久的に分解能を増やし続けられるのでは?
そーした場合、分解能を増やすにしたがって、分解能のレベルにあった物理法則を実装していく必要があるねー、という意味で「半」永久的と書いてみた。
現実的には、最初の仮定をいかに確保し続けられるか、CPU,メモリ,HDD使用効率の高いシステムを組めるかってのがこの仮想世界の成長速度を決めそう。
gumonji3.0に期待。
ランクBBBのアイディアでした。