کلاهبرداران از هوش مصنوعی برای شبیهسازی صدای دیگران و فریب افراد استفاده میکنند
تاریخ انتشار: ۲۰ اسفند ۱۴۰۱ | کد خبر: ۳۷۳۰۵۳۱۰
به گزارش خبرگزاری صداوسیما؛ یک زوج کانادایی ۷۰ ساله اخیراً از طرف نوهی خود تماسی تلفنی دریافت کردند که به آنها گفت در زندان است و به پول وثیقه نیاز دارد. آنها ۳۰۰۰ دلار از حساب بانکی خود برداشت کردند و قصد داشتند همین مقدار پول را از حساب دیگر خود دریافت کنند، اما مدیر بانک هشدار داد که تماس مذکور درواقع کلاهبرداری است؛ زیرا قبلاً یکی دیگر از مشتریان آنها تماسی مشابه را دریافت کرده بود که بعداً مشخص شد آن تماس نیز جعلی بوده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
زوج دیگری تماسی از یک وکیل دریافت کردند که به آنها اعلام کرد پسرشان یک دیپلمات آمریکایی را در تصادف رانندگی کشته است و اکنون در زندان بهسر میبرد و برای تأمین هزینههای قانونی به پول احتیاج دارد. این وکیل حتی پسر زوج مذکور را پشت تلفن آورد تا به آنها بگوید دوستشان دارد و از آنها بابت پولی که پرداخت میکنند قدردانی میکند.
این زوج میگویند صدای پخششده شباهت بسیار زیادی به صدای پسر آنها داشت و بههمیندلیل باور کردند که واقعاً با او صحبت کردهاند. آنها مبلغ ۱۵۴۴۹ دلار را از طریق شبکهی بیت کوین برای شخص کلاهبردار ارسال کردند و موفق به پس گرفتن آن نشدند.
کلاهبرداری از طریق جعل صدای دیگران، موضوع جدیدی نیست. دادههای کمیسیون تجارت فدرال آمریکا نشان میدهد از هر ۳۶ هزار گزارش مربوط به کلاهبرداری در سال گذشته که وانمود کردهاند دوست یا خانوادهی افراد هستند، بیش از ۵۱۰۰ مورد آنها جعلی بودهاند.
تِکاسپات مینویسد، فرایند جعل صدا قبلاً بسیار پیچیدهای بود و برای انجام این کار به جمعآوری چندین ساعت صدای شخص موردنیاز نیاز داشتید و البته همیشه کیفیت بالایی هم ارائه نمیداد. اکنون با روی کار آمدن ابزارهای هوش مصنوعی، فرایند شبیهسازی صدای دیگران بسیار آسان است و کلاهبرداران فقط به کلیپ بسیار کوچکی از صحبت کردن آنها نیاز دارند و این مورد نیز در اغلب موارد در حسابهای کاربری رسانههای اجتماعی افراد موجود است.
ابزار Vall-E مایکروسافت که ماه ژانویه معرفی شد بر پایهی فناوری دیگری موسوم به EnCodec کار میکند. این ابزار با تجزیهوتحلیل سه ثانیه از صدای افراد و استفاده از آن برای آموزش مدلهای هوش مصنوعی، میتواند صدای آنها را با کیفیت بالا شبیهسازی کند. این فناوری حتی لحن، تن صدا و احساس گوینده را نیز تقلید میکند. با مراجعه به صفحهی گیتها این پروژه میتوانید قدرت آن را در تقلید صدای دیگران مشاهده کنید.
ElevenLabs نیز ابزار صوتی مبتنیبر هوش مصنوعی دیگری بهنام VoiceLab ارائه داده است که امکان شبیهسازی صدای افراد را با روشی آسان فراهم میکند. البته سوءاستفادههای فراوان از این برنامه باعث شد قابلیت شبیهسازی صدا از نسخهی رایگان آن حذف شود.
منبع: خبرگزاری صدا و سیما
کلیدواژه: صدای دیگران هوش مصنوعی شبیه سازی ی افراد
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iribnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۰۵۳۱۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی جهتگیری سیاسی افراد را از روی چهره تشخیص میدهد
به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، از آنجایی که هوش مصنوعی با سرعتی طوفانی بر عصر دیجیتال تسلط یافته است، تعیین مزایا و معایب این فناوری چالش برانگیزتر شده است. این امر، تعیین استانداردها و سیاستهای تنظیم فناوری را برای دولتهای سراسر جهان دشوارتر کرده است.
اکنون، مطالعه جدیدی که توسط محققان دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد انجام شده است به بررسی تأثیرات هوش مصنوعی بر تشخیص جهتگیری سیاسی افراد میپردازد. در این مطالعه نشان داده شده است که جهتگیری سیاسی میتواند توسط انسان یا هوش مصنوعی و با استفاده از تصاویر چهره افراد پیشبینی شود، حتی زمانی که عواملی مانند سن، جنسیت و نژاد در نظر گرفته شده باشند.
کشف ارتباط میان تمایلات سیاسی و ویژگیهای چهره
پژوهشگران پاسخهای ۵۹۱ نفر از شرکتکنندگانی که پرسشنامههای سیاسی را پر کردهاند، مورد بررسی قرار دادند. آنها همچنین اسکن صورت افراد را توسط الگوریتم هوش مصنوعی و ارزیابیکنندههای انسان بررسی و ارتباط بین مورفولوژی چهره و ایدئولوژی سیاسی را پیدا کردند.
این مطالعه همچنین ۳۴۰۱ سیاستمدار از ایالات متحده، بریتانیا و کانادا را مورد تجزیه و تحلیل قرار داد.
به نظر میرسد هوش مصنوعی با ضریب همبستگی (r) برابر با ۰.۲۲ و انسانها با ضریب همبستگی ۰.۲۱، میتوانند به درستی جهتگیری سیاسی را پیشبینی کنند.
این دقت پیشبینی قابل توجه است، زیرا مقیاس جهتگیری سیاسی دارای سطح بالایی از همسانی داخلی (α کرونباخ = ۰.۹۴) بوده و با حذف همبستگی با متغیرهای جمعیتشناختی مانند سن، جنسیت و نژاد تنظیم شده است.
نتایج نشان داد که توانایی فناوری تشخیص چهره برای پیشبینی جهتگیری سیاسی به طور مشابه با روشهای پیشبینی موجود قابلیت پیشبینی را دارد.
نویسندگان تاکید کردند: این نشان دهنده ارتباط بین تمایلات سیاسی و ویژگیهای ذاتی چهره است که تا حد زیادی خارج از کنترل فرد است.
بر اساس این مطالعه، دقت پیشبینی الگوریتم با ضریب همبستگی ۰.۳۱ بیشتر شد. این نشان داد که در نظر گرفتن متغیرهای جمعیت شناختی با ویژگیهای چهره میتواند به طور قابل توجهی تواناییهای پیش بینی الگوریتم را بهبود بخشد.
در هنگام پیشبینی، این مطالعه ادعا کرده است که لیبرالها دارای چهرههای کوچکتر و ویژگیهای متحرک به سمت پایین هستند، در حالی که محافظهکاران ویژگیهای چهره متضادی را نشان میدهند.
قابلیت پیش بینی جهت گیری سیاسی از تصاویر استاندارد شده پیامدهای مهمی برای حفظ حریم خصوصی، تنظیم فناوری تشخیص چهره و درک منشاء و پیامدهای جهت گیری سیاسی دارد.
هوش مصنوعی جهتگیری سیاسی را از تصاویر چهره خنثی تشخیص میدهد
اکنون، این فناوری میتواند جهت گیری سیاسی افراد را فقط از روی تصاویر چهره خنثی آنها و علیرغم در نظر گرفتن عوامل جمعیتی مانند سن، جنسیت و قومیت تشخیص دهد.
این یافتهها منعکسکننده پیامدهای سیاسی نظارت بیومتریک است که از الگوریتمهای هوش مصنوعی استفاده میکند و تهدید جدیدی برای حریم خصوصی و استقلال سیاسی در عصر دیجیتال است.
محققان با تاکید بر نیاز فوری به مقابله با چالشهای عصر دیجیتال، اظهار داشتند: یافتههای ما بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی شخصی برای محققان، مردم و سیاستگذاران تاکید میکند.
این مطالعه در مجله امریکن سایکولوژیست منتشر شده است.
انتهای پیام/