Особенное развитие 3D-моделирование получило в современном танце. Ещё в 1968 году на выставке Cybernetic Serendipity был представлен хореографический проект компьютерного центра Питсбургского университета, в котором все танцевальные движения были сгенерированы компьютером на основе случайного выбора комбинаций, хотя это и не совсем имело отношение к 3D-моделированию в современном понимании. Зато в 1990-х появляются сразу несколько программ с возможностью создавать объёмные фигуры с установленными параметрами и программировать их перемещения в пространстве – Life Forms и Dance Forms. Уже упоминавшийся выше Мерс Каннингем стал первым, кто использовал 3D-моделирование для постановки танца, что только усилило степень неестественности танцевальных и пластических движений, и так присущей этому хореографу. В 1991 году появляется его танец Beach Birds for Camera, весь построенный на резких, угловатых, изломанных движениях. Спектакли Hand-Drawn Spaces и Loops также частично основаны на движениях, смоделированных с помощью этих программ.
Не всегда такого рода опыты бывают удачными. Режиссёр Роберт Уилсон в коллаборации с композитором Филипом Глассом в конце 90-х задумали очередную совместную оперу, она получила название Monsters of Grace. Как обычно, перед постановкой Уилсон рисовал визуальную книгу спектакля – его идеи к этой постановке были мегаломанические: гигантская рука должна была вытягивать меч из океана, вертолёт должен был пролетать над Великой Китайской стеной. Уперевшись в нереализуемость проекта в реальном пространстве, Уилсон обратился к 3D-моделированию. Технологии на тот момент были понятно какие, у креативной группы ушёл целый год, чтобы в черновом варианте нарисовать видео по эскизам и сценарию Уилсона, судя по доступным скриншотам, получилось это довольно средне. Оперу показывали несколько раз: ансамбль играл музыку Гласса на сцене, а одновременно с этим на проекционный экран сверху давали 3D-видео. Проект явно сильно опередил своё время. Уилсон в интервью The New York Times позже с ужасом отмечал, что он ненавидит этот проект и что это была одна из самых стыдных вещей в его жизни.
Фейс-хакингу в его современном виде чуть меньше трёх лет. В августе 2014 года японский художник и видеограф Нобумичи Асаи запустил проект OMOTE (что с японского переводится как лицо или маска) и записал видеоролик, демонстрирующий возможности проецирования динамического изображения на движущееся лицо. В феврале 2016-го совместно с Intel Асаи выпустил работу Connected Colors, в которой использовал более изощрённую (и более «природную») видеографику, которая то расходилась волнами по лицу модели, то заполняла его как татуировка. Это всё выглядело выразительно, но существовало только в качестве экспериментальных работ на видео. В том же месяце проходила 58-я церемония вручения премий Грэмми, где Intel совместно с Асаи в качестве технического и креативного директора впервые продемонстрировали фейс-хакинг вживую на большую аудиторию: в первые минуты выступления Леди Гаги с трибьютом Дэвиду Боуи на её лице растекалось что-то похожее на лаву, затем у глаза сформировался узнаваемый красный зигзаг, после чего на лице появился паук. Правда, на видео очевидно торможение проекции по отношению к резко дёргающемуся лицу исполнительницы: на тот момент технология была ещё не так точна.
Заметный прогресс можно было увидеть уже весной 2017 года: в марте Асаи выпустил очередную работу с фейс-видеомэппингом, в котором приняли участие две японские танцовщицы, составляющие популярный дуэт AyaBambi. Не говоря о том, что качество и динамичность видеографики сильно продвинулись вперёд, стоит также отметить, что в движениях головы объекты мэппинга стали более свободны: даже при резких поворотах вбок или взмахах вверх проекция на затормаживает и не срывается с контура. К тому же в этой работе площадкой для мэппинга стали сразу два человека; в некоторых местах проекция на лица синхронная, в некоторых – нет.
В общем виде технология выглядит следующим образом. Прежде всего необходимо создать 3D-модель лица человека, на которое будет осуществляться проекция. Нобумичи Асаи, в частности, физически накладывает разные виды макияжа на лицо, фиксирует его на фото, а затем с помощью фотограмметрии уточняет параметры «лицевого ландшафта» для создания объёмной цифровой модели лица. Имея 3D-модель и видеографику, созданную специально под неё, лицо человека очищают от макияжа, клеят на него несколько инфракрасных маркеров, после чего ряд из пяти ИК-камер способен фиксировать движения лица и сопоставлять их с компьютерной моделью. Дальше всё зависит только от мощностей компьютера, способных с высокой скоростью обрабатывать сенсорный трекинг.
Читать дальше
Конец ознакомительного отрывка
Купить книгу