Перейти к публикации

Рекомендованные сообщения

Если это реализуют, мне доставит также как доставила интеграция bmesh (крайне много %-=)

Compositing View Port Proposal

 

 

This year I am considering proposing a new viewport for Blender as a

Summer of Code project.

 

Name is subject to change. I've already had one person think that I

want to preview compositing nodes in the view port. That is not my

proposal.

 

This email is to solicit some feedback so that I can write a good

proposal or change my focus and propose something else.

 

The problems as I currently see them:

 

* The current view port rendering code in Blender is a mess.

 

* Extending the view port has to be done ad hoc and is even

recommended against due to its complexity

 

* Taking advantage of modern opengl features might be especially

difficult. These include:

- pixel buffers

- floating point or HDR formats

- depth textures

 

Parts of a possible proposal:

 

* re-factor all view port drawing operations into a set of composable commands

* enable rendering to pixel buffers

* compose pixel buffers using GLSL and/or blending operations

* new view port modes can be written as scripts, like Render Monkey or

DirectX Effect format (or even Quake 3 if you wanna go back that far)

* re-enable all current view port modes as just simple scripts in the new system

* create new view port modes (like Material Capture or SSAO)

* let expert users create their own custom viewports

* the ability to control view port script parameters using RNA, i.e.,

automatically add controls to the UI

 

I am not proposing doing anything with the GLSL code generator that is

used for materials.

 

I have not looked into how this integrates with the different view

port drawing modes (triple, etc.)

 

I am concerned that PBVH drawing in 'partial redraw' mode may be more

difficult to integrate, or not.

 

Cursor rendering probably is not affected.

 

I discussed this briefly with Ton, he had some ideas about glowing

outlines around objects. That kind of feature would be possible.

Part of my proposal could include a set of example view ports scripts

like that to get the expert users started.

 

I'd like to really focus this year on a single goal with an easily

defined deliverable.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А где посмотреть на каком этапе развития Tracking? И соответственно написать пожелания по недостающим фичам?

З.Ы. а то для текущих задач не хочется учить майю или макс

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А что конкретно тебе нужно от трекинга?

 

На данный момент тречить можно только вручную (но, надо отметить, быстро и качественно), автоматический трекинг отсутствует как класс.

Чтобы корректно солвить камеру нужно указать фокусное расстояние и размер задника (матрицы). Т.е. взять левый шот и оттречить его нереально (точнее засолвить, оттречить-то можно).

Если видео снимаешь сам (или можешь узнать параметры камеры), то трекер вполне рабочий инструмент.

 

По недостающим фичам лучше писать непосредственно разработчикам, я думаю.

 

P.S. Что такого есть в Максе-Майе в плане трекинга, чего нет в Блендере?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
А что конкретно тебе нужно от трекинга?

нужно вот что

для проекта по face mocap, затрекать материал с 3х камер

автору, по вышеуказанному линку писал, но ответа не получил

P.S. Что такого есть в Максе-Майе в плане трекинга, чего нет в Блендере?

В блендере есть все, что нужно, но из-за недостающих фич по трекингу приходится работать с PFTrack (раньше использовал Syntheyes)

В пиэфтреке можно сделать полностью лицевую анимацию, но геометрия экспортиться только в продукты autodesk

В блендер можно экспортнуть только камеру с трекингом через Collada, правда пустышки в блендере анимированы по position'у, отчего нельзя отследить наклоны головы.

В синсайзе работа с 3мя камерами сильно мудреная, экспортить можно только через 2,49 и по прежнему нет у пустышек rotation'а

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Мокап планируется в трекере, но когда - непонятно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

r 45242

Cycles: shadow pass support. Note that this only takes into account lamps,

emitting objects or world lighting do not contribute to the shadow pass.

...както не понятно зачем он нужен тогда.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ZORG

Действительно. Фигня получается. %)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

:rj:

Revision: 45917

Author: blendix

Date: 2012-04-24 11:52:58 +0000 (Tue, 24 Apr 2012)

Log Message:

-----------

Cycles: BVH build time optimizations:

 

* BVH building was multithreaded. Not all building is multithreaded, packing

and the initial bounding/splitting is still single threaded, but recursive

splitting is, which was the main bottleneck.

 

* Object splitting now uses binning rather than sorting of all elements, using

code from the Embree raytracer from Intel.

http://software.intel.com/en-us/articles/embree-photo-realistic-ray-tracing-kernels/

 

* Other small changes to avoid allocations, pack memory more tightly, avoid

some unnecessary operations, ...

 

These optimizations do not work yet when Spatial Splits are enabled, for that

more work is needed. There's also other optimizations still needed, in

particular for the case of many low poly objects, the packing step and node

memory allocation.

 

BVH raytracing time should remain about the same, but BVH build time should be

significantly reduced, test here show speedup of about 5x to 10x on a dual core

and 5x to 25x on an 8-core machine, depending on the scene.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

С такими разработками и внедрениями от интела скоро можно будет забыть слово "рендерить" ))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

cooler_inc

Угу. Вот только придётся топовые процессоры покупать. :smile:

А с разработками CryTech можно скоро забыть о съёмочных площадках. Они ж нацелились сделать так. что бы в их движке можно было фильмы снимать. ))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Convex Hull мне иногда порядком не хватает этого инструмента. http://wiki.blender.org/index.php/User:Nicholasbishop/Convex_Hull

  • 800px-Hull5.png
    Hull3.gifHull4.gifHull.gif

 

 

Новости с GSOC 2012

  • ss20120429095415.png

 

mmmmm sushi empanada...

  • tumblr_lhgyy1yt1p1qaekbe.gif

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Люди, кто использует GPU с сусликом, заметили как при длительных просчетах (анимация) все тормозит?! Даже обычный скролинг страницы в браузере еле шевелится, а про воспроизведение видео можно забыть.

Кто-нибудь знает как настроить комп, чтобы рендерить на GPU и остальное не так жутко лагало?

Есть еще встроенная видюха, но она кажется отлючается на этапе загрузки, в биосе не нашел опции, чтобы использовать все, точнее там ничего не отключено.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я чуть-чуть юзаю, но до анимации пока не доходило. Постараюсь попробовать в ближайшие дни.

 

Я думаю, что это нормально, что тормозит. Сейчас все стараются ускориться через ГПУ (тот же флеш, к примеру), и, если видеокарта занята, результат соответствующий.

 

Кстати, cuda или opencl? Какая видеокарта, система, блендер?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Можно купить еще одну видеокарту ;)

 

Convex hull кстати дурацкий получился. Даже при небольшом количестве векршин блендер вешатеся. Meshlab кстати при любом количестве поликов эту же операцию моментально выполняет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

:rj: ray length!

 

http://agus3d.blogspot.com.ar/2012/05/blender-cycles-ray-length-node-output.html

Revision: 46200

 

Author: blendix

Date: 2012-05-02 17:03:46 +0000 (Wed, 02 May 2012)

Log Message:

-----------

Cycles: add Ray Length output to Light Path node. This gives the distance travelled

by the last light ray. One use case for this might be to do absorption.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Кстати, cuda или opencl? Какая видеокарта, система, блендер?

i7-2600k, GTX570, blender 263.1 r46094 windows 7

Можно купить еще одну видеокарту

дорого :) да и вроде слышал, что gpu с cpu на одной шине, поэтому все тормозит

у друга на убунте вроде нет таких проблем, поэтому поднял вопрос

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Node Editing Tweaks

Неужели Лукас импрувнул юзабилити, а от нового ресайза, темных цветов выделения и цветных фреймов прямо слезы наворачиваются... от счастья.

А также это пример когда разработчик учитывая пожелания юзера делает удобный инструмент для продакшена.

Вот бы Кампбел и Брехт тем же занимались *dreaming*

По ссылке много анимированных gif примеров.

funky_selection_theme_colors.thumb.jpg.d0289fdfa27b4709352f8414112aa136.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
:rj: ray length!...

Крутяк! как думаешь, в 2.64 впихнут?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Это уже в trunk

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите в него для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!

Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.

Войти сейчас

×
×
  • Создать...

Важная информация

Чтобы сделать этот веб-сайт лучше, мы разместили cookies на вашем устройстве. Вы можете изменить свои настройки cookies, в противном случае мы будем считать, что вы согласны с этим. Условия использования