اپنایآی وعده تقویت ضد دیپفیک داد

اپنایآی پس از آنکه ویدیوهایی از بازیگر مشهور برایان کرانستون در برنامه ویدیویی مبتنی بر هوش مصنوعی خود منتشر شد بدون آنکه او رضایت داده باشد در بیانیهای مشترک با انجمن بازیگران SAG-AFTRA اعلام کرد که اقدامات کنترلیاش را برای جلوگیری از تولید محتوای جعلی تشدید خواهد کرد.
به گزارش خبرگزاری ایمنا و به نقل از د ورج،برایان کرانستون هرگز درخواست نکرده بود که در «Sora»، اپلیکیشن تولید و اشتراک ویدیوی مبتنی بر هوش مصنوعی اپنایآی، شرکت کند، اما با این حال چند قطعه ویدئویی از او در این سکو منتشر شد از جمله ویدئویی که او را در حال گرفتن عکس سلفی با مایکل جکسون نشان میداد، SAG-AFTRA و چند آژانس نمایندگی هنرمندان، پیش از این بارها نگرانی خود را نسبت به کمبود محافظتها برای هنرمندان در برابر سوءاستفاده از فناوری شبیهسازی دیجیتال اعلام کرده بودند.
ضوابط و تعهدات جدید اپنایآی
در بیانیه مشترک صادرشده، اپنایآی تأکید کرده است که برای جلوگیری از انتشار محتواهای جعلی، اقدامات کنترلی (guardrails) خود را تقویت کرده است، همچنین این شرکت متعهد شده است که افراد( شامل هنرمندان، اجراکنندگان و هر شخصی) حق داشته باشند تعیین کنند که آیا شبیهسازی چهره یا صدا از آنها انجام شود یا نه؟ اپنایآی نیز عذرخواهی برای تولیدات ناخواسته را بیان کرده، هرچند جزئیات دقیقی درباره تغییرات فنی به رسانهها ارائه نکرده است.
برایان کرانستون در این بیانیه گفته است از اینکه اپنایآی سیاستهایی اتخاذ کرده است، سپاسگزار است، اما به گفته رئیس SAG-AFTRA، آستین، هنرمندان هنوز نیازمند قوانینی هستند تا از «استفاده انبوه و نادرست توسط فناوری شبیهسازی» محافظت شوند، آنها به قانون پیشنهادی موسوم به «NO FAKES Act» اشاره کردند که هدف آن تنظیم حقوقی کاربرد فناوریهای تولید محتوای دیجیتال و جلوگیری از سوءاستفاده گسترده است؛ این رخداد بار دیگر به مشکلات اخلاقی و حقوقی استفاده از هوش مصنوعی در تجسم دیجیتال چهرهها و صداها توجه دوباره جلب کرد، فناوریهایی همچون Sora اگرچه امکانات جالبی برای خلق محتوا فراهم میآورند، اما بدون چارچوبهای قانونی و اخلاقی نیز میتوانند به گسترش دیپفیک و سوءاستفادههای گسترده دامن بزنند، در آینده موفقیت اپنایآی در کنترل تولید محتوای جعلی بستگی زیادی به شفافیت در عملکرد، همکاری با جوامع هنری و تصویب قوانین حمایتی دارد.
کد خبر 916997