CPUの性能表示って未だに~~GHzとかだけど
演算速度で性能表示するのはダメなのか?
FLOPSでの性能表示も入れてもいいんじゃなーい?だめかね?
もちろん理論値ではなく
実際のベンチマークスタッツでね
こちらのサイトさまで
オレが知りたい事をまさに実現していた
おもに一般向けのCore i7など
http://ameblo.jp/markettalentmay/entry-11080910906.html
ほかXeonの性能表示
とりあえず、出荷基準記事を見つけたのでざらっと目を通したんだが
http://www.intel.com/jp/support/processors/xeon/sb/cs-020863.htm?wapkw=%28xeon+flops%29
出荷基準だけを見る限りでは名のイニシャルは
Lシリーズ < Eシリーズ < Xシリーズ まぁ、当たり前だろうな
もちろん後に続くナンバリングも、数字が増えれば
おおかたFLOPSは増えていくようだ、そりゃそうだろ
価格帯と上手く合わせていけば
FLOPSがデカイCPUが選べると思う
間違いなくコア数は多いにこしたことはない
やっぱり実際の速度として100GFLOPSくらいだろうか
ここにXeonのベンチが乗っていた
http://www.hpc-technologies.co.jp/benchmarks/HPL-Bench-table.html
ちらみだが、サーバーのベンチマークだろうか
ここにも情報
http://www.maxxpi.net/pages/result-browser/top10—flops.php
自分の今のマシンはsandraで計ったら45GFLOPSだった
ほんとか?本当はそんなでとらんような・・・
日本ではつい最近、京というスーパーコンピューターが10PFLOPSを達せいした
http://ja.wikipedia.org/wiki/%E4%BA%AC_%28%E3%82%B9%E3%83%BC%E3%83%91%E3%83%BC%E3%82%B3%E3%83%B3%E3%83%94%E3%83%A5%E3%83%BC%E3%82%BF%29
で、なんでFLOPSなん?
って言う話しだけど
CGでのレンダリングは
単純にFLOPSが大きいほど速いのサ
CPUは現行最速のものでも1CPUで150GFLOPS
昨今はGPUレンダリングの話題が上がっているが
なんでGPUレンダラーかというと
GPUの方がFLOPSの値は大きい
今まで、レンダリングサーバとかファームとかは高価
でもGPUは安価な価格でも2TFLOPS(2000GFLOPS)
桁違いに速い
こちらにGTX580 × 8という構成でV-RayRTを走らせている
デモンストレーションがある
理論速度12TFLOPS、ひと昔前のスパコンだよw
分かる人なら、この速度ビビリますよ
今後GPUレンダラーが多く開発されて欲しいものだ
今はまだ制限が多いのだ
V-RayRTでもサポートしていない機能が多い
FumeFXもAfterBurnもGPU計算すればもっと速いだろうなー
まぁ今の時代は
クラウドレンダリングだからな
多少お金がかかっても、相対的にはこっちのほうが安いか
レンダーファームを貸し出してくれる
1コア、時間あたり、0.7usdの価格
http://www.rebusfarm.net/index.php/en/
こっちも同種のサービス
1GHz時間あたり3.5~6.9セントだそうだ
正味こういったサービスが日本には無い様に思える
こんな事言うのは切ないが
日本のCG制作環境は悪すぎる
特に比較的小規模のプロダクションは・・
元の話しに戻って、この海外のサービスでも、CPUのFLOPS表示をしてくれない
どこの国でもやっぱりHz表示が一般なのだろうか?
そういえばAmazonクラウドでも
レンダリングってやってくれるんだろうか?
Autodeskのクラウドレンダリングはソフトに制限があるしな・・・
ちなみに、FLOPSを調べるベンチはこちら
http://www.sisoftware.net/
http://www.maxxpi.net/pages/downloads/maxxpisup2—preview-single.php
あ、そうだ
今度昔のマシンでも試してみようかな