Web Analytics Made Easy - Statcounter

به گزارش خبرگزاری صداوسیما؛ یک زوج کانادایی ۷۰ ساله اخیراً از طرف نوه‌ی خود تماسی تلفنی دریافت کردند که به آن‌ها گفت در زندان است و به پول وثیقه نیاز دارد. آن‌ها ۳۰۰۰ دلار از حساب بانکی خود برداشت کردند و قصد داشتند همین مقدار پول را از حساب دیگر خود دریافت کنند، اما مدیر بانک هشدار داد که تماس مذکور درواقع کلاهبرداری است؛ زیرا قبلاً یکی دیگر از مشتریان آن‌ها تماسی مشابه را دریافت کرده بود که بعداً مشخص شد آن تماس نیز جعلی بوده است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

زوج دیگری تماسی از یک وکیل دریافت کردند که به آن‌ها اعلام کرد پسرشان یک دیپلمات آمریکایی را در تصادف رانندگی کشته است و اکنون در زندان به‌سر می‌برد و برای تأمین هزینه‌های قانونی به پول احتیاج دارد. این وکیل حتی پسر زوج مذکور را پشت تلفن آورد تا به آن‌ها بگوید دوستشان دارد و از آن‌ها بابت پولی که پرداخت می‌کنند قدردانی می‌کند.

این زوج می‌گویند صدای پخش‌شده شباهت بسیار زیادی به صدای پسر آن‌ها داشت و به‌همین‌دلیل باور کردند که واقعاً با او صحبت کرده‌اند. آن‌ها مبلغ ۱۵۴۴۹ دلار را از طریق شبکه‌ی بیت کوین برای شخص کلاهبردار ارسال کردند و موفق به پس گرفتن آن نشدند.

کلاهبرداری از طریق جعل صدای دیگران، موضوع جدیدی نیست. داده‌های کمیسیون تجارت فدرال آمریکا نشان می‌دهد از هر ۳۶ هزار گزارش مربوط به کلاهبرداری در سال گذشته که وانمود کرده‌اند دوست یا خانواده‌ی افراد هستند، بیش از ۵۱۰۰ مورد آن‌ها جعلی بوده‌اند.

تِک‌اسپات می‌نویسد، فرایند جعل صدا قبلاً بسیار پیچیده‌ای بود و برای انجام این کار به جمع‌آوری چندین ساعت صدای شخص موردنیاز نیاز داشتید و البته همیشه کیفیت بالایی هم ارائه نمی‌داد. اکنون با روی کار آمدن ابزار‌های هوش مصنوعی، فرایند شبیه‌سازی صدای دیگران بسیار آسان است و کلاهبرداران فقط به کلیپ بسیار کوچکی از صحبت کردن آن‌ها نیاز دارند و این مورد نیز در اغلب موارد در حساب‌های کاربری رسانه‌های اجتماعی افراد موجود است.

ابزار Vall-E مایکروسافت که ماه ژانویه معرفی شد بر پایه‌ی فناوری دیگری موسوم به EnCodec کار می‌کند. این ابزار با تجزیه‌وتحلیل سه ثانیه از صدای افراد و استفاده از آن برای آموزش مدل‌های هوش مصنوعی، می‌تواند صدای آن‌ها را با کیفیت بالا شبیه‌سازی کند. این فناوری حتی لحن، تن صدا و احساس گوینده را نیز تقلید می‌کند. با مراجعه به صفحه‌ی گیت‌ها این پروژه می‌توانید قدرت آن را در تقلید صدای دیگران مشاهده کنید.

ElevenLabs نیز ابزار صوتی مبتنی‌بر هوش مصنوعی دیگری به‌نام VoiceLab ارائه داده است که امکان شبیه‌سازی صدای افراد را با روشی آسان فراهم می‌کند. البته سوءاستفاده‌های فراوان از این برنامه باعث شد قابلیت شبیه‌سازی صدا از نسخه‌ی رایگان آن حذف شود.

منبع: خبرگزاری صدا و سیما

کلیدواژه: صدای دیگران هوش مصنوعی شبیه سازی ی افراد

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.iribnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری صدا و سیما» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۳۰۵۳۱۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد

به گزارش خبرگزاری علم و فناوری آنا به نقل از اینترستینگ اینجینرینگ، از آنجایی که هوش مصنوعی با سرعتی طوفانی بر عصر دیجیتال تسلط یافته است، تعیین مزایا و معایب این فناوری چالش برانگیزتر شده است. این امر، تعیین استاندارد‌ها و سیاست‌های تنظیم فناوری را برای دولت‌های سراسر جهان دشوارتر کرده است.

اکنون، مطالعه جدیدی که توسط محققان دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد انجام شده است به بررسی تأثیرات هوش مصنوعی بر تشخیص جهت‌گیری سیاسی افراد می‌پردازد. در این مطالعه نشان داده شده است که جهت‌گیری سیاسی می‌تواند توسط انسان یا هوش مصنوعی و با استفاده از تصاویر چهره افراد پیش‌بینی شود، حتی زمانی که عواملی مانند سن، جنسیت و نژاد در نظر گرفته شده باشند.

کشف ارتباط میان تمایلات سیاسی و ویژگی‌های چهره

پژوهشگران پاسخ‌های ۵۹۱ نفر از شرکت‌کنندگانی که پرسش‌نامه‌های سیاسی را پر کرده‌اند، مورد بررسی قرار دادند. آنها همچنین اسکن صورت افراد را توسط الگوریتم هوش مصنوعی و ارزیابی‌کننده‌های انسان بررسی و ارتباط بین مورفولوژی چهره و ایدئولوژی سیاسی را پیدا کردند.

این مطالعه همچنین ۳۴۰۱ سیاستمدار از ایالات متحده، بریتانیا و کانادا را مورد تجزیه و تحلیل قرار داد.

به نظر می‌رسد هوش مصنوعی با ضریب همبستگی (r) برابر با ۰.۲۲ و انسان‌ها با ضریب همبستگی ۰.۲۱، می‌توانند به درستی جهت‌گیری سیاسی را پیش‌بینی کنند.

این دقت پیش‌بینی قابل توجه است، زیرا مقیاس جهت‌گیری سیاسی دارای سطح بالایی از همسانی داخلی (α کرونباخ = ۰.۹۴) بوده و با حذف همبستگی با متغیر‌های جمعیت‌شناختی مانند سن، جنسیت و نژاد تنظیم شده است.

نتایج نشان داد که توانایی فناوری تشخیص چهره برای پیش‌بینی جهت‌گیری سیاسی به طور مشابه با روش‌های پیش‌بینی موجود قابلیت پیش‌بینی را دارد.

نویسندگان تاکید کردند: این نشان دهنده ارتباط بین تمایلات سیاسی و ویژگی‌های ذاتی چهره است که تا حد زیادی خارج از کنترل فرد است.

بر اساس این مطالعه، دقت پیش‌بینی الگوریتم با ضریب همبستگی ۰.۳۱ بیشتر شد. این نشان داد که در نظر گرفتن متغیر‌های جمعیت شناختی با ویژگی‌های چهره می‌تواند به طور قابل توجهی توانایی‌های پیش بینی الگوریتم را بهبود بخشد.

در هنگام پیش‌بینی، این مطالعه ادعا کرده است که لیبرال‌ها دارای چهره‌های کوچک‌تر و ویژگی‌های متحرک به سمت پایین هستند، در حالی که محافظه‌کاران ویژگی‌های چهره متضادی را نشان می‌دهند.

قابلیت پیش بینی جهت گیری سیاسی از تصاویر استاندارد شده پیامد‌های مهمی برای حفظ حریم خصوصی، تنظیم فناوری تشخیص چهره و درک منشاء و پیامد‌های جهت گیری سیاسی دارد.

هوش مصنوعی جهت‌گیری سیاسی را از تصاویر چهره خنثی تشخیص می‌دهد

اکنون، این فناوری می‌تواند جهت گیری سیاسی افراد را فقط از روی تصاویر چهره خنثی آن‌‌‌ها و علیرغم در نظر گرفتن عوامل جمعیتی مانند سن، جنسیت و قومیت تشخیص دهد.

این یافته‌ها منعکس‌کننده پیامد‌های سیاسی نظارت بیومتریک است که از الگوریتم‌های هوش مصنوعی استفاده می‌کند و تهدید جدیدی برای حریم خصوصی و استقلال سیاسی در عصر دیجیتال است.

محققان با تاکید بر نیاز فوری به مقابله با چالش‌های عصر دیجیتال، اظهار داشتند: یافته‌های ما بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی شخصی برای محققان، مردم و سیاست‌گذاران تاکید می‌کند.

این مطالعه در مجله امریکن سایکولوژیست منتشر شده است.

انتهای پیام/

دیگر خبرها

  • تازه‌ترین شواهد از وجود سیاره X در لبه تاریک منظومه شمسی
  • ۸ نکته درباره‌ افکار و خطاهای شناختی/ چطور خشم خود را کنترل کنیم؟
  • رشته‌ها و سطوح برگزاری المپیاد ورزش‌های فناورانه دانشجویی اعلام شد
  • رشته‌ها و سطوح المپیاد ورزش‌های فناورانه دانشجویی اعلام شد
  • ویدئویی شگفت‌انگیز از صدای جوجه تیغی که شبیه گریه نوزاد است
  • کدام تیم قهرمان یورو 2024 می شود؟ نتیجه 10 هزار شبیه سازی با کامپیوتر!
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • کسانی که اعتمادبه‌نفس آن‌ها نمایشی است، این رفتارها را دارند
  • بومی سازی تجهیزات الکترونیکی در صنعت دریا
  • بومی سازی تجهیزات الکترونیکی کاربردی در صنعت دریا