تهدید جدید هوش مصنوعی شناسایی شدیک مطالعه تازه در مورد افزایش موارد کلاهبرداری با استفاده از تقلید صدای تولید شده از طریق هوش مصنوعی هشدار داده است. - جی پلاس ، مطالعه ای در کالج دانشگاهی لندن نشان داده است که بیش از یک چهارم صدا های تقلید شده با استفاده از ابزار موسوم به "Deepfake"، موفق شده اند حتی تیزترین و با تمرکزترین شنوندگان را فریب دهند. باشگاه خبرنگاران جوان نوشت؛ به گفته محققان کالج دانشگاهی لندن، بیش از 500 نفر که برای تشخیص صدا های واقعی از صدا های تقلیدی آموزش دیده بودند، توانستند تنها 73 درصد از صدا های تقلید شده را در طول مطالعه تشخیص دهند. این مطالعه با استفاده از دو زبان انگلیسی و چینی انجام شد که در آن درصد های به دست آمده برای هر دو زبان مشابه بود؛ اما این تیم تحقیقاتی دریافت که انگلیسی زبانان صدای انسان از صدای جعلی را از طریق ریتم تنفس تشخیص می دهند، در حالی که چینی ها از طریق ریتم، سرعت و روانی گفتار، موفق به تشخیص شدند. طبق گزارشات موجود، در برهه اخیر از صدا های جعلی برای کلاهبرداری از مردم و گرفتن پول از آن ها با معرفی خود به عنوان دوست یا شریک تجاری و درخواست از قربانی برای انتقال پول استفاده می شود. پیشرفت های اخیر در فناوری هوش مصنوعی، نگرانی هایی را در مورد احتمال وقوع کلاهبرداری های گسترده، به ویژه با توانایی برنامه های هوش مص برچسب ها: |
آخرین اخبار سرویس: |