В последнее время заметно участились случаи использования технологии дипфейка и компьютерной графики для улучшения качества продукции.
Рекламный ролик молока, в котором Пак Ын Бин встречает себя в молодости, привлек много внимания из-за замечательного сходства между актрисой и ею в молодости.
Использование технологии дипфейков, основанной на глубоком обучении искусственного интеллекта, в рекламном ролике с участием Пак Ын Бин и трех детей-актрис вызвало дискуссии среди пользователей сети.
Целью встречи Пак Ын Бин с ее молодой личностью было осветить 87-летнюю историю. Это вызвало шквал реакции со стороны пользователей сети, многие из которых выразили удивление по поводу технологии, используемой для воссоздания ее детской внешности с помощью искусственного интеллекта. Другие отметили поразительное сходство между ними, сравнив это с проблеском ее пути взросления.
Технологию Deepfake активно используют в рекламе, произведениях и новостях. Он предполагает использование искусственного интеллекта для синтеза черт лица или конкретных частей тела.
Этот термин представляет собой комбинацию «глубокого обучения» и «подделки» и описывает технологию, которая использует глубокое обучение для автономного обучения на внешних данных и создания черт лица или определенных частей тела реальных людей.
Благодаря развитию технологий стало возможным объединять лица разных актеров для создания совершенно новых персонажей.
В шоу JTBC «Добро пожаловать в Самдал-ри» технология дипфейка была использована для воссоздания внешности покойной Сон Хэ из шоу 1994 года «Корея поет». Аналогично, в оригинальном сериале Netflix «Парадокс убийцы» актер, изображающий младшую версию Сон Сок Ку, также был создан с использованием технологии deepfake.
Кавер-версии ИИ привлекли широкое внимание в музыкальной индустрии. Быстрый онлайн-поиск выдает множество кавер-версий ИИ. Хотя использование технологии искусственного интеллекта для усложнения сцен может улучшить общее впечатление, существуют также серьезные опасения по поводу ее использования.
Без тщательного изучения «технологии дипфейков» и «кавер-версии ИИ» легко могут быть ошибочно приняты за реальных людей, что создает потенциальную опасность. В результате растет дискуссия вокруг проблем, возникающих в результате использования этих технологий.
С ростом числа дипфейковых преступлений жертвами становятся и знаменитости. Недавно, выступая на пресс-конференции, Сон Ын И призвала к немедленным действиям против онлайн-фишинга, в котором используются личности знаменитостей.
Она подчеркнула важность национальной осведомленности и внедрения системных изменений, заявив: «Крайне важно, чтобы мы признали потенциальную возможность использования технологии дипфейков для совершения ужасных преступлений. Мы должны принять превентивные меры и повысить сознательность общества, чтобы предотвратить будущий вред и избежать оплакивания последствий этих преступлений».
Более того, по мере того, как такие технологии, как дипфейк и искусственный интеллект, продолжают развиваться, растет обеспокоенность по поводу их потенциала усугубить поляризацию в индустрии развлечений. Знаменитости из списка A могут извлечь выгоду из использования моделей искусственного интеллекта для увеличения своей прибыли, но это может привести к сокращению возможностей трудоустройства для менее известных актеров.
В прошлом году Гильдия киноактеров также признала эти опасения. Хотя эти технологии предлагают многочисленные преимущества, сохраняются опасения по поводу их возможного использования в преступной деятельности и их влияния на поляризацию. Предпринимаются усилия по мониторингу потенциальных результатов этого влияния в будущем.
Добавить комментарий