تقلید بدون نقص صدای انسان/ هوش مصنوعی میتواند مردم را فریب دهد
تاریخ انتشار: ۱۶ مرداد ۱۴۰۲ | کد خبر: ۳۸۴۰۲۶۰۵
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، آیا میتوانید تشخیص دهید صدایی که هماکنون به گوش شما رسید تولیدشده توسط هوش مصنوعی بوده یا خیر؟ حتی زمانی که افراد میدانند ممکن است به گفتار تولیدشده توسط هوش مصنوعی گوش دهند، بازهم تشخیص قابلاعتماد صدای دیپ فیک برای هر دو زبان انگلیسی و چینی دشوار است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
کیمبرلی مای در یونیورسیتی کالج لندن و همکارانش بیش از ۵۰۰ نفر را برای شناسایی دیپ فیکهای گفتاری در میان چندین کلیپ صوتی به چالش کشیدند. برخی کلیپها حاوی صدای اصیل یک گوینده زن بودند که جملات عمومی را به زبان انگلیسی یا ماندارین میخواند، درحالیکه برخی دیگر دیپ فیکهایی بودند که توسط هوش مصنوعی مولد آموزشدیده بر روی صدای زنان ایجادشده بودند.
شرکتکنندگان در این مطالعه بهطور تصادفی در دو چیدمان آزمایشی مختلف قرار گرفتند. یک گروه به ۲۰ نمونه صدا به زبان مادری خود گوش دادند و باید تصمیم میگرفتند که آیا کلیپها واقعی هستند یا جعلی.
مردم بهدرستی دیپ فیکها و صداهای معتبر را در حدود ۷۰ درصد مواقع برای هر دو نمونه صدای انگلیسی و ماندارین طبقهبندی کردند. این موضوع نشان میدهد که تشخیص دیپ فیک توسط انسان در زندگی واقعی احتمالاً حتی از این هم بدتر خواهد بود چراکه اغلب افراد لزوماً از قبل نمیدانند که ممکن است گفتار تولیدشده توسط هوش مصنوعی را بشنوند.
به گروه دوم ۲۰ جفت کلیپ صوتی بهطور تصادفی داده شد. هردوی آنها یک جمله را نشان میدادند که توسط یک انسان و یک دیپ فیک گفته میشد و از شرکتکنندگان خواسته میشد تا جعلی بودن آن را اعلام کنند. این کار دقت تشخیص را به بیش از ۸۵ درصد افزایش داد اگرچه تیم تائید کرد که این سناریو مزیت غیرواقعی به شنوندگان میدهد.
مای میگوید: این چیدمان کاملاً نماینده سناریوهای زندگی واقعی نیست به شنوندگان از قبل گفته نمیشود که آیا آنچه گوش میدهند واقعی است یا نه، و عواملی مانند جنسیت و سن گوینده میتواند بر عملکرد تشخیص تأثیر بگذارد.
هانی فرید در دانشگاه کالیفرنیا، برکلی میگوید: این مطالعه همچنین شنوندگان را به چالش نکشید تا تشخیص دهند که آیا دیپ فیکها مانند فرد هدف تقلید میشوند یا خیر. شناسایی صدای معتبر بلندگوهای خاص در سناریوهای واقعی مهم است کلاهبرداران صدای رهبران کسبوکار را برای فریب کارمندان برای انتقال پول شبیهسازی کردهاند و کمپینهای اطلاعرسانی نادرست، صدای سیاستمداران شناختهشده را در شبکههای اجتماعی آپلود کردهاند.
بااینحال، فرید چنین تحقیقی را کمک به ارزیابی این موضوع توصیف کرد که دیپ فیکهای تولیدشده توسط هوش مصنوعی در حال حرکت در درهای عجیب هستند و بدون حفظ تفاوتهای ظریف گفتاری که ممکن است برای شنوندگان ترسناک باشد صدای طبیعی انسان را تقلید میکنند.
وی گفت: این مطالعه پایهای مفید برای سیستمهای تشخیص خودکار جعل عمیق فراهم میکند.
وی در ادامه با اشاره به اینکه تلاشهای بیشتر برای آموزش شرکتکنندگان برای بهبود تشخیص دیپ فیک عموماً با شکست مواجه شد ادامه داد: این نشان میدهد که توسعه ردیابهای دیپ فیک مبتنی بر هوش مصنوعی مهم است. او و همکارانش به دنبال آزمایش این موضوع هستند که آیا مدلهای زبانی بزرگ باقابلیت پردازش دادههای گفتاری میتوانند این کار را انجام دهند یا خیر.
انتهای پیام/
منبع: آنا
کلیدواژه: هوش مصنوعی دیپ فیک چت جی پی تی هوش مصنوعی مولد دیپ فیک ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ana.press دریافت کردهاست، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۴۰۲۶۰۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
رفتارهای غیرمنطقی انسان الگوی جدید هوش مصنوعی شد
خبرگزاری علم و فناوری آنا؛ محققان دانشگاه ام آی تی و دانشگاه واشنگتن راهی برای مدلسازی رفتار یک سوژه، خواه انسانی یا ماشینی، ابداع کردند که محدودیتهای محاسباتی ناشناخته را توضیح میدهد. این روش جدید به درک تفکر انسان و ماشین و چگونگی حل مشکلات کمک میکند و هر گونه محدودیتی را که ممکن است مانع حل مسئله شود شناسایی میکند.
برای ساختن سیستمهای هوش مصنوعی که میتوانند همکاری مؤثری با انسان داشته باشند، الگوبرداری مناسب از رفتار انسان برای شروع مفید است. اما بیشتر انسانها تمایل دارند هنگام تصمیمگیری رفتاری نشان دهند که با هنجارها و استانداردها چندان سازگار نیست. این غیرمنطقی بودن، که مدلسازی آن بهویژه دشوار است، اغلب به محدودیتهای محاسباتی ختم میشود. دلیلش این است که یک انسان فرصت ندارد مدتهای طولانی وقت صرف کند تا به راه حل مناسب برای حل یک مشکل برسد.
پیشبینی و پیشگیری از رفتارهای اشتباه
مدل جدید محققان میتواند به طور خودکار محدودیتهای محاسباتی یک سوژه را با دیدن تنها چند نمونه از اقدامات قبلی آنها استنتاج کند. این «پایه استنتاج» میتواند برای پیشبینی رفتارهای آتی آن سوژه استفاده شود. برای مثال، میتواند پیشبینی کند که بر اساس الگوهای سفر قبلی یک فرد به کجا میرود و یا مثلاً حرکت بعدی یک بازیکن را در بازی شطرنج پیشبینی کند. این کار میتواند به دانشمندان کمک کند نحوه رفتار انسانها را به سیستمهای هوش مصنوعی بیاموزند تا به همکاران انسانی خود بهتر پاسخ دهند. به گفته پائول جیکوب (Paul Jacob)، نویسنده ارشد این تحقیق، توانایی درک رفتار انسان و سپس استنتاج اهداف او بر اساس رفتار، میتواند کارایی یک دستیار هوش مصنوعی را تا حد زیادی ارتقا دهد.
جیکوب میگوید: «هوش مصنوعی میتواند با مشاهده رفتارهای قبلی انسان، او را از انجام اشتباه احتمالی بازدارد و وارد عمل شود و راه بهتری را پیشنهاد دهد. حتی میتواند با نقاط ضعفی که همکاران انسانیاش دارند سازگار شود. توانایی مدلسازی رفتار انسان گام مهمی به سوی ساخت یک عامل هوش مصنوعی است که در واقع میتواند به آن انسان کمک کند.»
چگونگی آموزش الگوریتم
اولین مرحله در روش آنها شامل اجرای یک الگوریتم حل مسئله در مدت زمان محدود است. برای مثال، اگر مدل هوش مصنوعی در حال انجام مسابقه شطرنج است به الگوریتم آن اجازه میدهند که فقط در تعداد معینی از مراحل اجرا شود. در پایان، محققان میتوانند تصمیماتی را که الگوریتم در هر مرحله اتخاذ کرده است، مشاهده و بررسی کنند.
سپس این مدل، تصمیمات خود را با تصمیمات سوژهای که از آن الگو گرفته مقایسه میکند تا با هم هماهنگ شوند و مرحلهای که عامل برنامهریزی را متوقف کرده است شناسایی میکند. از این رو، مدل میتواند پایه استنتاج یا مدت زمانی که آن سوژه برای این مشکل برنامهریزی میکند را برآورد کند. از پایه استنتاج همچنین میتوان برای پیشبینی نحوه واکنش آن سوژه هنگام حل یک مشکل مشابه استفاده کرد.
این روش میتواند بسیار کارآمد باشد، زیرا محققان میتوانند بدون تلاش مضاعف، به مجموعه کاملی از تصمیمات الگوریتم حل مسئله دسترسی داشته باشند. این چارچوب همچنین میتواند به حل هر مشکلی که در آن کلاس خاص از الگوریتم قرار دارد کمک کند.
محققان رویکرد خود را در سه مدلسازی مختلف آزمایش کردند: استنباط اهداف ناوبری بر اساس مسیرهای قبلی، حدس زدن قصد ارتباطی افراد از روی نشانههای کلامی آنها و پیشبینی حرکات بعدی در مسابقات شطرنج انسان با انسان. روش آنها در هر آزمایش یا با یک انتخاب رایج مطابقت داشت یا عملکرد بهتری را نشان داد.
با این روش جدید، سیستمهای هوش مصنوعی از اشتباهات خود درس میگیرند و مهارتهای تصمیمگیری خود را بهبود میبخشند. از این رویکرد همچنین میتوان برای مدلسازی فرآیند برنامهریزی در رباتها استفاده کرد. هدف نهایی این روش، ایجاد مدلهایی از هوش مصنوعی است که بتوانند همکاری مؤثرتری با انسان داشته باشند.
این گزارش از ام آی تی نیوز به فارسی برگردان شده است.
انتهای پیام/
نازنین احسانی طباطبایی