Shade11でフォトモデラーなる機能が搭載されるそうですが

http://shade.e-frontier.co.jp/11/new/
他ソフトでは「イメージベースドモデリング」とか言われてるものでしょう。
写真からのモデリングについて考えたことがあれば気づくことですが
違った視点から見た最低2枚の写真さえあれば、理論的にはプログラムで立体を生成することが可能ですよね。
もちろん写真に写ってない部分はできませんが、そのためにはもっとたくさんの写真があればいい。
これは写真に限ったことではなくて、手動でモデリングするにも、
皆が普段やってるように立体をくるくる回してコネコネコネコネ押したり引っ張ったりしなくても
実際は2点からの位置を指定してやるだけ、要するに2回の操作で三次元上の正確な位置を指定することができるはずなのです。
それを利用してるのが六角大王のマンガモードやMarbleClayに搭載されてるGYAKKOUアルゴリズムですが。
突き詰めれば六角もGYAKKOUも(Shade11のもう一つの新機能である「スケッチモデラー」も)フォトモデラーと同じものですよね。
だから写真を1枚読み込んでトレス→2枚目の写真を読み込んで1枚目をトレスしたラインを重ねてポイント位置をちょちょいと修正
という機能をつけてくれただけで十分イメージベースドモデリングができる、と思うんですがどうでしょうか。
もっとも一般に「イメージドベースドモデリング」というと、
その写真をテクスチャとしてもそのまま利用できる、という意味も含んでるのかもしれませんが。