فیلم های Deepfake از بحث وحشتناک تام کروز


برای کسانی که از آینده ای می ترسند که ویدیوهای افراد واقعی را از جعلیات تولید شده توسط رایانه تشخیص ندهد ، ممکن است دو اتفاق اخیر که میلیون ها مخاطب را به خود جلب کرده نگران کننده به نظر برسد.

در ابتدا ، یک هنرمند جلوه های بصری با تقلید کننده تام کروز کار می کند تا ویدیوهایی کاملاً دقیق ایجاد کند که از بازیگر تقلید می کند. این فیلم ها که با استفاده از تکنیک های یادگیری ماشین ایجاد شده و به عنوان deepfakes شناخته می شوند ، در اواخر فوریه میلیون ها بازدید در TikTok ، Twitter و سایر شبکه های اجتماعی به دست آوردند.

سپس ، چند روز بعد ، MyHeritage ، یک وب سایت تبارشناسی که بیشتر به دلیل نقش خود در ردیابی هویت قاتل Golden State شناخته می شود ، ابزاری را برای متحرک سازی دیجیتالی عکس های قدیمی عزیزان ، و ایجاد یک فیلم کوتاه و دوره ای ارائه داد که در آن می توانید افراد را مشاهده کنید. سر خود را حرکت می دهند و حتی لبخند می زنند. این شرکت گفت ، از روز دوشنبه بیش از 26 میلیون تصویر با استفاده از ابزاری به نام Deep Nostalgia متحرک شده است.

توجه مجدد این فیلم ها به پتانسیل رسانه های مصنوعی است که می تواند منجر به پیشرفت های چشمگیری در صنعت تبلیغات و سرگرمی شود. اما می توان از فناوری نیز استفاده کرد – و استفاده شده است – برای ایجاد شک و تردید در مورد فیلم های قانونی و قرار دادن افراد ، از جمله کودکان ، در تصاویر پورنوگرافی.

سازندگان ویروس تام کروز TikToks گفتند که تجربه مورد نیاز برای استفاده از این فناوری استفاده از آن را بسیار دشوارتر کرده است و شرکت سازنده ابزار انیمیشن عکس گفت که این اقدامات احتیاطی را برای جلوگیری از سو استفاده در نظر گرفته است. کارشناسان می گویند این دو نمونه خیلی نگران کننده نیستند ، اما س theyالاتی را در مورد آینده این فناوری ایجاد می کنند که باید در ذهن داشته باشید در حالی که هنوز نسبتاً جوان است.

سام گرگوری ، مدیر برنامه در سازمان شاهد ، یک سازمان غیرانتفاعی متمرکز بر استفاده اخلاقی از فیلم و یک متخصص در زمینه مصنوعی ، گفت: “گرچه نوستالژی عمیق به خودی خود بی ضرر است ، اما این بخشی از این ابزار است که به طور بالقوه بسیار تهدیدآمیز است.” هوش

تقلید دیجیتالی از آقای کروز کار آسانی نبود. کریس ام ، هنرمند جلوه های تصویری در بلژیک که فیلم ها را خلق کرده است ، در مصاحبه ای گفت که آنها به تجربه و زمان زیادی نیاز دارند.

بیشتر آنچه در فیلم ها می بینید ، بدن و صدای مایلز فیشر ، تقلیدی از تام کروز است که قبلاً به آداب و اصوات بازیگر تسلط کافی داشت و حتی بدون دستکاری ها بسیار به نظر می رسد. این ویدئوها فقط چهره ، از پیشانی تا چانه ، تام کروز واقعی را نشان می دهد.

او دو ماه به آموزش مدل رایانه ای خود برای ایجاد حالت های چهره برای آقای کروز پرداخت و ابتدا قبل از تمرکز روی آقای کروز ، یک فیلم از چهره های تصادفی را به او داد. آقای Ume حدود 24 ساعت در تولید برای هر ویدئوی یک دقیقه ای ، جزئیات دقیق مانند آرایش چشم را تنظیم کرد.

وی گفت ، حتی اگر این فناوری پیشرفت کند ، فیلم هایی مانند او به کار دستی گسترده و یک تقلید ماهر احتیاج دارند.

وی گفت: “مثل یک استودیوی کوچک هالیوود با ما دو نفر است.” “این کاری نیست که شما بتوانید با لمس یک دکمه در رایانه خانگی انجام دهید.”

ابزار عمیق نوستالژی توسط MyDervice توسط D-ID ، یک شرکت هوش مصنوعی مستقر در تل آویو ایجاد شده است. گیل پری ، مدیرعامل D-ID ، گفت این شرکت فقط با شرکایی کار می کند که می تواند اعتماد کند از این فناوری سو not استفاده نمی کند و یک رابطه چهار ساله با MyHeritage داشته است.

فیلم های ایجاد شده با این ابزار دارای علامت های آبی هستند که نشان می دهد واقعی نیستند و فیلم ها شامل صدا نیستند ، راه حلی که آقای پری گفت استفاده از آنها برای اهداف ناخوشایند را دشوار می کند.

وی گفت: فناوری محرک نوستالژی “فقط نوک کوه یخی از آنچه ما قادر به انجام آن هستیم” است.

وی گفت: “پتانسیل بسیاری از این فناوری بی پایان است.”

وقتی افراد خوش بین از نقاط قوت این فن آوری صحبت می کنند ، اغلب به استفاده از آن در وکالت اشاره می کنند ، جایی که می تواند با مشکلات روبرو شود و روابط عاطفی عمیق تری ایجاد کند.

یک سازمان غیردولتی ویدیویی از خاویر آرتورو والدز کاردناس ، روزنامه نگار مکزیکی که در سال 2017 کشته شد ، ایجاد کرده است که در آن به نظر می رسد برای قتل خود خواهان عدالت است. والدین خواکین الیور ، مرد 17 ساله ای که در سال 2018 در یک تیراندازی دسته جمعی در دبیرستانی در پارک لندن ، فلوریدا کشته شد ، وی را به دلیل ویدئویی که قانون ایمنی اسلحه را تبلیغ می کند ، زنده کرد. پلیس در ایالت ویکتوریا استرالیا از یک افسر پلیس که در سال 2012 در اثر خودکشی درگذشت برای ارائه پیامی در حمایت از سلامت روان استفاده می کند.

و به چچن خوش آمدید ، مستندی که سال گذشته درباره پاکسازی های ضد همجنسگرایان و لزبین ها در چچن منتشر شد ، از فناوری برای محافظت از هویت چچن های پر خطر استفاده می کند.

این جلوه ها همچنین می توانند در هالیوود برای بهبود سن یا سن بازیگران یا برای بهبود دوبله فیلم ها و نمایش های تلویزیونی به زبان های مختلف مورد استفاده قرار گیرند و حرکت لب ها را به زبان صفحه هماهنگ کنند. مدیران شرکتهای بین المللی همچنین وقتی به کارمندانی که به زبانهای مختلف صحبت می کنند مراجعه کنند ، می توانند طبیعی تر به نظر برسند.

اما منتقدان نگرانند که این فناوری برای بهبود آن ، خصوصاً ایجاد پورنوگرافی که چهره یک شخص را روی بدن شخص دیگری قرار می دهد ، مورد سو استفاده قرار گیرد.

نینا شیک ، نویسنده کتاب Deepfakes: The Coming Infocalypse ، گفت که اولین پورنوگرافی عمیقاً جعلی ساعت ها فیلم می برد ، بنابراین افراد مشهور اهداف معمول هستند. اما با پیشرفت تکنولوژی ، به محتوای کمتری برای ایجاد فیلم ها احتیاج دارد و زنان و کودکان بیشتری را در معرض خطر قرار می دهد.

به گزارش BuzzFeed News ، ابزاری در برنامه پیام رسان تلگرام که به کاربران امکان می دهد تصاویر برهنه شبیه سازی شده از یک عکس بارگذاری شده را ایجاد کنند ، قبلاً صدها هزار بار استفاده شده است.

خانم شیک گفت: “این مسئله به مشكلی تبدیل می شود كه می تواند همه را تحت تأثیر قرار دهد ، خصوصاً افرادی كه منابع لازم برای دفاع از خود را ندارند.”

این فناوری همچنین می تواند تأثیر بی ثباتی در امور جهانی داشته باشد ، زیرا سیاستمداران می گویند این فیلم ها ، از جمله فیلم های واقعی ، جعلی هستند برای دستیابی به مزیتی که اساتید حقوق رابرت چسنی و دانیل سیترون آن را “سود سهام دروغگو” خوانده اند.

در گابن ، رهبران مخالف ادعا می کنند که ویدئویی از رئیس جمهور علی بونگو اوندیمبا که سخنرانی سال جدید خود را در سال 2019 ارائه می دهد ، در تلاش برای پوشاندن مشکلات بهداشتی جعل شده است. سال گذشته ، یک نامزد جمهوری خواه برای صندلی در ساختمان سنت لوئیس گفته بود که فیلم مرگ جورج فلوید در بازداشت پلیس به صورت دیجیتالی منتشر شده است.

به گفته آقای گریگوری ، متخصص هوش مصنوعی ، با پیشرفت تکنولوژی ، از آن به طور گسترده تری استفاده خواهد شد ، اما تأثیرات آن قبلاً مشخص شده است.

وی گفت: “مردم همیشه سعی می كنند كه جعلی كامل را در نظر بگیرند كه برای اهداف مضر یا مفید ضروری نباشد.”

MyHeritage با معرفی ابزاری برای دلتنگی عمیق ، با درخواست از کاربران “از این ویژگی در عکسهای تاریخی خود استفاده کنید ، نه در عکسهایی که افراد زنده بدون اجازه آنها از آنها استفاده می کنند” ، به موضوع رضایت رسید. آقای ام ، که جعل های جعلی آقای کروز را ایجاد کرده است ، گفت که او هیچ ارتباطی با بازیگر یا نمایندگانش ندارد.

البته ، افرادی که فوت کرده اند نمی توانند موافقت کنند که در فیلم ها گنجانده شوند. و اینکه آیا می توان افراد مرده – به ویژه افراد مشهور – را به صورت دیجیتالی زنده کرد ، مهم است ، زیرا هنرمند باب راس مجبور شد کوه شبنم را بفروشد ، یا همان کاری که رابرت کارداشیان سال گذشته به عنوان هدیه دخترش کیم کارداشیان وست از همسرش کانیه وست انجام داد.

هنری ایدر ، محقق جعل های عمیق ، آینده ای را متصور شد که در آن صدای خود را می توان با دستیاران مانند آمازون الکسا استفاده کرد ، به ما این امکان را می دهد که پس از مرگ با عزیزانمان در ارتباط باشیم. یا همانطور که در یک قسمت از آینه سیاه گفته شد ، می توان تمام جنبه های شخصیت ما را پس از مرگ شبیه سازی کرد ، که توسط صدای ما در شبکه های اجتماعی آموزش داده می شود.

اما این س difficultال دشواری را به وجود می آورد ، وی گفت: “در چه مواردی برای احیای مجدد آنها به رضایت مردگان نیاز داریم؟”

آقای آژدر گفت: “این س questionsالات باعث می شوند شما احساس ناراحتی کنید ، چیزی کمی اشتباه یا آزار دهنده است ، اما تشخیص این مسئله فقط به دلیل جدید بودن یا اشاره به شهود عمیق تر درباره مسئله ای مشکل است.”


منبع: rah-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>