W ostatnim czasie zauważalny jest wzrost liczby przypadków wykorzystania technologii deepfake i grafiki komputerowej w celu poprawy jakości produkcji.
Reklama mleka, w której Park Eun-bin spotyka swoją młodszą wersję, wzbudziła duże zainteresowanie ze względu na niezwykłe podobieństwo między aktorką a jej młodszą wersją.
Wykorzystanie technologii deepfake opartej na głębokim uczeniu AI w reklamie z Park Eun-bin i trzema dziecięcymi aktorkami wywołało dyskusje wśród internautów.
Celem spotkania Park Eun-bin ze swoją młodszą wersją było podkreślenie 87 lat historii. Wywołało to lawinę reakcji internautów, a wielu wyraziło zdumienie technologią zastosowaną do odtworzenia jej wyglądu z dzieciństwa za pomocą sztucznej inteligencji. Inni zauważyli uderzające podobieństwo między nimi, porównując je do spojrzenia na jej drogę dorastania.
Technologia Deepfake jest aktywnie wykorzystywana w reklamach, pracach i wiadomościach. Polega na wykorzystaniu sztucznej inteligencji do syntezy rysów twarzy lub konkretnych części ciała.
Termin ten stanowi połączenie słów „głębokie uczenie się” i „fałszywość” i opisuje technologię wykorzystującą głębokie uczenie się do autonomicznego uczenia się na podstawie danych zewnętrznych i generowania cech twarzy lub określonych części ciała prawdziwych osób.
Dzięki postępowi technologii możliwe stało się łączenie twarzy różnych aktorów, aby stworzyć zupełnie nowe postacie.
W programie JTBC „Welcome to Samdal-ri” wykorzystano technologię deepfake do odtworzenia wyglądu zmarłego Song Hae z programu „Korea Sings” z 1994 roku. Podobnie w oryginalnym serialu Netflix „A Killer Paradox” aktor grający młodszą wersję Son Suk-ku również został stworzony przy użyciu technologii deepfake.
Covery AI zyskały szerokie zainteresowanie w branży muzycznej. Szybkie wyszukiwanie online daje mnóstwo coverów AI. Chociaż wykorzystanie technologii sztucznej inteligencji w celu zwiększenia złożoności scen może poprawić ogólne wrażenia, istnieją również uzasadnione obawy dotyczące jej stosowania.
Bez dokładnego zbadania „technologię deepfake” i „covery AI” można łatwo błędnie zidentyfikować jako prawdziwych ludzi, stwarzając potencjalne zagrożenia. W rezultacie narastają dyskusje na temat problemów wynikających ze stosowania tych technologii.
Wraz ze wzrostem liczby fałszywych przestępstw, celem ataków stają się także celebryci. Niedawno Song Eun-yi, przemawiając na konferencji prasowej, wezwała do natychmiastowych działań przeciwko internetowym oszustwom typu phishing, w którym wykorzystuje się tożsamość gwiazd.
Podkreśliła znaczenie świadomości narodowej i wdrażania zmian systemowych, deklarując: „Konieczne jest, abyśmy uznali potencjał technologii deepfake do wykorzystania w ohydnych zbrodniach. Musimy podjąć środki zapobiegawcze i zwiększyć świadomość społeczną, aby zapobiec przyszłym szkodom i uniknąć opłakiwania konsekwencji tych zbrodni”.
Co więcej, w miarę ciągłego rozwoju technologii takich jak deepfake i sztuczna inteligencja rosną obawy, że mogą one zaostrzyć polaryzację w branży rozrywkowej. Gwiazdy z czołowych gwiazd mogą odnieść korzyści z wykorzystania modeli sztucznej inteligencji w celu zwiększenia swoich zysków, ale może to prowadzić do spadku możliwości zatrudnienia dla mniej znanych aktorów.
W zeszłym roku Gildia Aktorów Ekranowych również potwierdziła te obawy. Chociaż technologie te oferują liczne korzyści, nadal istnieją obawy dotyczące ich możliwego wykorzystania do działalności przestępczej i ich wpływu na polaryzację. Podejmowane są wysiłki w celu monitorowania potencjalnych skutków tego wpływu w przyszłości.
Dodaj komentarz