Останнім часом помітно почастішали випадки, коли технології deepfake і CG використовуються для покращення якості продукції.
Рекламний ролик про молоко, в якому Пак Юн Бін зустрічається зі своєю молодшою особистістю, привернув багато уваги через дивовижну схожість між актрисою та нею.
Використання технології deepfake на базі глибокого навчання штучного інтелекту в рекламі Пак Ен Бін і трьох дітей-актор викликало обговорення серед користувачів мережі.
Метою зустрічі Пак Ен Бін із нею молодшою була висвітлити 87 років історії. Це викликало шквал реакцій серед користувачів мережі, і багато хто висловлював подив технологією, використаною для відтворення її дитинства за допомогою ШІ. Інші відзначали разючу схожість між ними, порівнюючи це з проблиском у її подорожі зростання.
Технологія Deepfake активно використовується в рекламі, роботах і новинах. Це передбачає використання штучного інтелекту для синтезу рис обличчя або окремих частин тіла.
Цей термін є поєднанням «глибокого навчання» та «підробки» та описує технологію, яка використовує глибоке навчання для автономного вивчення зовнішніх даних і створення рис обличчя або окремих частин тіла реальних людей.
Завдяки прогресивним технологіям стало можливим комбінувати обличчя різних акторів для створення абсолютно нових персонажів.
У шоу JTBC «Ласкаво просимо в Самдал-рі» технологія deepfake була використана для відтворення зовнішнього вигляду покійного Сонг Хе з шоу 1994 року «Korea Sings». Подібним чином, в оригінальному серіалі Netflix «Парадокс вбивці» актор, який зображує молодшу версію Сон Сук Ку, також був створений за допомогою технології deepfake.
Кавер-версії пісень AI привернули широку увагу в музичній індустрії. Швидкий онлайн-пошук дає безліч кавер-версій пісень штучного інтелекту. Хоча використання технології штучного інтелекту для додання складності сценам може покращити загальний досвід, існують також обґрунтовані побоювання щодо її використання.
Без ретельного вивчення «технологію глибокої підробки» та «кавер-версії пісень штучного інтелекту» можна легко ідентифікувати як реальних людей, створюючи потенційну небезпеку. Як наслідок, навколо проблем, які виникають у зв’язку з використанням цих технологій, зростають дискусії.
У зв’язку зі зростанням кількості фальшивих злочинів мішенями стають і знаменитості. Нещодавно, виступаючи на прес-конференції, Сон Ен І закликав до негайних заходів проти онлайн-шахрайства з фішингом, які використовують особи знаменитостей.
Вона наголосила на важливості національної обізнаності та впровадження системних змін, заявивши: «Надзвичайно важливо, щоб ми визнали можливість використання технології глибоких фейків для жахливих злочинів. Ми повинні вжити превентивних заходів і підвищити суспільну свідомість, щоб запобігти майбутній шкоді та уникнути оплакування наслідків цих злочинів».
Більше того, оскільки такі технології, як deepfake та AI, продовжують розвиватися, зростає занепокоєння щодо їх потенціалу посилення поляризації в індустрії розваг. Популярні знаменитості можуть отримати вигоду від використання моделей штучного інтелекту для збільшення своїх прибутків, але це може призвести до зменшення можливостей працевлаштування для менш відомих акторів.
Минулого року Гільдія кіноакторів також визнала ці побоювання. Незважаючи на те, що ці технології пропонують численні переваги, побоювання щодо їх можливого використання для злочинної діяльності та їхнього впливу на поляризацію залишаються. Докладаються зусиль для моніторингу потенційних наслідків цього впливу в майбутньому.
Залишити відповідь