Web Analytics Made Easy - Statcounter

به گزارش خبرنگار خبرگزاری علم و فناوری آنا،‌ آیا می‌توانید تشخیص دهید صدایی که هم‌اکنون به گوش شما رسید تولیدشده توسط هوش مصنوعی بوده یا خیر؟ حتی زمانی که افراد می‌دانند ممکن است به گفتار تولیدشده توسط هوش مصنوعی گوش دهند، بازهم تشخیص قابل‌اعتماد صدای دیپ فیک برای هر دو زبان انگلیسی و چینی دشوار است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این بدان معناست که میلیارد‌ها نفر از افرادی که زبان‌های رایج دنیا را درک می‌کنند، به‌طور بالقوه در معرض خطر کلاهبرداری یا اطلاعات نادرست قرار دارند.

کیمبرلی مای در یونیورسیتی کالج لندن و همکارانش بیش از ۵۰۰ نفر را برای شناسایی دیپ فیک‌های گفتاری در میان چندین کلیپ صوتی به چالش کشیدند. برخی کلیپ‌ها حاوی صدای اصیل یک گوینده زن بودند که جملات عمومی را به زبان انگلیسی یا ماندارین می‌خواند، درحالی‌که برخی دیگر دیپ فیک‌هایی بودند که توسط هوش مصنوعی مولد آموزش‌دیده بر روی صدای زنان ایجادشده بودند.
 
شرکت‌کنندگان در این مطالعه به‌طور تصادفی در دو چیدمان آزمایشی مختلف قرار گرفتند. یک گروه به ۲۰ نمونه صدا به زبان مادری خود گوش دادند و باید تصمیم می‌گرفتند که آیا کلیپ‌ها واقعی هستند یا جعلی.

مردم به‌درستی دیپ فیک‌ها و صدا‌های معتبر را در حدود ۷۰ درصد مواقع برای هر دو نمونه صدای انگلیسی و ماندارین طبقه‌بندی کردند. این موضوع نشان می‌دهد که تشخیص دیپ فیک توسط انسان در زندگی واقعی احتمالاً حتی از این هم بدتر خواهد بود چراکه اغلب افراد لزوماً از قبل نمی‌دانند که ممکن است گفتار تولیدشده توسط هوش مصنوعی را بشنوند.

به گروه دوم ۲۰ جفت کلیپ صوتی به‌طور تصادفی داده شد. هردوی آن‌ها یک جمله را نشان می‌دادند که توسط یک انسان و یک دیپ فیک گفته می‌شد و از شرکت‌کنندگان خواسته می‌شد تا جعلی بودن آن را اعلام کنند. این کار دقت تشخیص را به بیش از ۸۵ درصد افزایش داد اگرچه تیم تائید کرد که این سناریو مزیت غیرواقعی به شنوندگان می‌دهد.
 
مای می‌گوید: این چیدمان کاملاً نماینده سناریو‌های زندگی واقعی نیست به شنوندگان از قبل گفته نمی‌شود که آیا آنچه گوش می‌دهند واقعی است یا نه، و عواملی مانند جنسیت و سن گوینده می‌تواند بر عملکرد تشخیص تأثیر بگذارد.

هانی فرید در دانشگاه کالیفرنیا، برکلی می‌گوید: این مطالعه همچنین شنوندگان را به چالش نکشید تا تشخیص دهند که آیا دیپ فیک‌ها مانند فرد هدف تقلید می‌شوند یا خیر. شناسایی صدای معتبر بلندگو‌های خاص در سناریو‌های واقعی مهم است کلاهبرداران صدای رهبران کسب‌وکار را برای فریب کارمندان برای انتقال پول شبیه‌سازی کرده‌اند و کمپین‌های اطلاع‌رسانی نادرست، صدای سیاستمداران شناخته‌شده را در شبکه‌های اجتماعی آپلود کرده‌اند.
 
بااین‌حال، فرید چنین تحقیقی را کمک به ارزیابی این موضوع توصیف کرد که دیپ فیک‌های تولیدشده توسط هوش مصنوعی در حال حرکت در دره‌ای عجیب هستند و بدون حفظ تفاوت‌های ظریف گفتاری که ممکن است برای شنوندگان ترسناک باشد صدای طبیعی انسان را تقلید می‌کنند.

وی گفت: این مطالعه پایه‌ای مفید برای سیستم‌های تشخیص خودکار جعل عمیق فراهم می‌کند.

وی در ادامه با اشاره به اینکه تلاش‌های بیشتر برای آموزش شرکت‌کنندگان برای بهبود تشخیص دیپ فیک عموماً با شکست مواجه شد ادامه داد: این نشان می‌دهد که توسعه ردیاب‌های دیپ فیک مبتنی بر هوش مصنوعی مهم است. او و همکارانش به دنبال آزمایش این موضوع هستند که آیا مدل‌های زبانی بزرگ باقابلیت پردازش داده‌های گفتاری می‌توانند این کار را انجام دهند یا خیر.

 

انتهای پیام/

منبع: آنا

کلیدواژه: هوش مصنوعی دیپ فیک چت جی پی تی هوش مصنوعی مولد دیپ فیک ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت ana.press دریافت کرده‌است، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۴۰۲۶۰۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

رفتارهای غیرمنطقی انسان الگوی جدید هوش مصنوعی شد

خبرگزاری علم و فناوری آنا؛ محققان دانشگاه ام آی تی و دانشگاه واشنگتن راهی برای مدل‌سازی رفتار یک سوژه، خواه انسانی یا ماشینی، ابداع کردند که محدودیت‌های محاسباتی ناشناخته را توضیح می‌دهد. این روش جدید به درک تفکر انسان و ماشین و چگونگی حل مشکلات کمک می‌کند و هر گونه محدودیتی را که ممکن است مانع حل مسئله شود شناسایی می‌کند.

برای ساختن سیستم‌های هوش مصنوعی که می‌توانند همکاری مؤثری با انسان داشته باشند، الگوبرداری مناسب از رفتار انسان برای شروع مفید است. اما بیشتر انسان‌ها تمایل دارند هنگام تصمیم‌گیری رفتاری نشان دهند که با هنجار‌ها و استاندارد‌ها چندان سازگار نیست. این غیرمنطقی بودن، که مدل‌سازی آن به‌ویژه دشوار است، اغلب به محدودیت‌های محاسباتی ختم می‌شود. دلیلش این است که یک انسان فرصت ندارد مدت‌های طولانی وقت صرف کند تا به راه حل مناسب برای حل یک مشکل برسد.

پیش‌بینی و پیشگیری از رفتار‌های اشتباه

مدل جدید محققان می‌تواند به طور خودکار محدودیت‌های محاسباتی یک سوژه را با دیدن تنها چند نمونه از اقدامات قبلی آنها استنتاج کند. این «پایه استنتاج» می‌تواند برای پیش‌بینی رفتار‌های آتی آن سوژه استفاده شود. برای مثال، می‌تواند پیش‌بینی کند که بر اساس الگو‌های سفر قبلی یک فرد به کجا می‌رود و یا مثلاً حرکت بعدی یک بازیکن را در بازی شطرنج پیش‌بینی کند. این کار می‌تواند به دانشمندان کمک کند نحوه رفتار انسان‌ها را به سیستم‌های هوش مصنوعی بیاموزند تا به همکاران انسانی خود بهتر پاسخ دهند. به گفته پائول جیکوب (Paul Jacob)، نویسنده ارشد این تحقیق، توانایی درک رفتار انسان و سپس استنتاج اهداف او بر اساس رفتار، می‌تواند کارایی یک دستیار هوش مصنوعی را تا حد زیادی ارتقا دهد.

جیکوب می‌گوید: «هوش مصنوعی می‌تواند با مشاهده رفتار‌های قبلی انسان، او را از انجام اشتباه احتمالی بازدارد و وارد عمل شود و راه بهتری را پیشنهاد دهد. حتی می‌تواند با نقاط ضعفی که همکاران انسانی‌اش دارند سازگار شود. توانایی مدل‌سازی رفتار انسان گام مهمی به سوی ساخت یک عامل هوش مصنوعی است که در واقع می‌تواند به آن انسان کمک کند.»

چگونگی آموزش الگوریتم

اولین مرحله در روش آنها شامل اجرای یک الگوریتم حل مسئله در مدت زمان محدود است. برای مثال، اگر مدل هوش مصنوعی در حال انجام مسابقه شطرنج است به الگوریتم  آن اجازه می‌دهند که فقط در تعداد معینی از مراحل اجرا شود. در پایان، محققان می‌توانند تصمیماتی را که الگوریتم در هر مرحله اتخاذ کرده است، مشاهده و بررسی کنند.

سپس این مدل، تصمیمات خود را با تصمیمات سوژه‌ای که از آن الگو گرفته مقایسه می‌کند تا با هم هماهنگ شوند و مرحله‌ای که عامل برنامه‌ریزی را متوقف کرده است شناسایی می‌کند. از این رو، مدل می‌تواند پایه استنتاج یا مدت زمانی که آن سوژه برای این مشکل برنامه‌ریزی می‌کند را برآورد کند. از پایه استنتاج همچنین می‌توان برای پیش‌بینی نحوه واکنش آن سوژه هنگام حل یک مشکل مشابه استفاده کرد.

این روش می‌تواند بسیار کارآمد باشد، زیرا محققان می‌توانند بدون تلاش مضاعف، به مجموعه کاملی از تصمیمات الگوریتم حل مسئله دسترسی داشته باشند. این چارچوب همچنین می‌تواند به حل هر مشکلی که در آن کلاس خاص از الگوریتم قرار دارد کمک کند.

محققان رویکرد خود را در سه مدل‌سازی مختلف آزمایش کردند: استنباط اهداف ناوبری بر اساس مسیر‌های قبلی، حدس زدن قصد ارتباطی افراد از روی نشانه‌های کلامی آنها و پیش‌بینی حرکات بعدی در مسابقات شطرنج انسان با انسان. روش آنها در هر آزمایش یا با یک انتخاب رایج مطابقت داشت یا عملکرد بهتری را نشان داد.

با این روش جدید، سیستم‌های هوش مصنوعی از اشتباهات خود درس می‌گیرند و مهارت‌های تصمیم‌گیری خود را بهبود می‌بخشند. از این رویکرد همچنین می‌توان برای مدل‌سازی فرآیند برنامه‌ریزی در ربات‌ها استفاده کرد. هدف نهایی این روش، ایجاد مدل‌هایی از هوش مصنوعی است که بتوانند همکاری مؤثرتری با انسان داشته باشند.

این گزارش از ام آی تی نیوز به فارسی برگردان شده است.

انتهای پیام/

نازنین احسانی طباطبایی

دیگر خبرها

  • پیش بینی آرتروز ۸ سال زودتر، با هوش مصنوعی و یک آزمایش خون
  • محققان: با هوش مصنوعی می‌توان آرتروز را ۸ سال زودتر پیش‌بینی کرد
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • پاسخ آیت الله نوری همدانی به سوالی درباره طرح عفاف و حجاب پلیس (طرح نور)
  • حمایت کامل یک مرجع تقلید از «طرح نور»: امری مبارک است | درباره حجاب به شدت حساسیم
  • کافی است انسان باشد!
  • هوش مصنوعی آرتروز زانو را ۸ سال زودتر تشخیص می‌دهد
  • رفتارهای غیرمنطقی انسان الگوی جدید هوش مصنوعی شد
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • ورود هوش مصنوعی به تشخیص‌‌های آزمایشگاهی/ لزوم آشنایی دانش‌آموزان با علوم آزمایشگاهی