بین الملل

جو بایدن جعلی دردسرساز شد

به گزارش شبکه؛ هوش مصنوعی با جعل صدای جو بایدن رای‌دهندگان نیوهمپشایر را ترغیب کرد تا در انتخابات مقدماتی ریاست جمهوری آمریکا شرکت نکنند.

۲ شرکت در تگزاس به انبوهی از تماس‌های رباتیک مرتبط شده اند که از هوش مصنوعی برای تقلید صدای جوبایدن رییس جمهور آمریکا استفاده کرده بود. این صوت دیپ فیک از رای دهندگان نیوهمپشایر می‌خواست در انتخابات مقدماتی ریاست جمهوری این ایالت شرکت نکنند. به گفته جان فورملا دادستان کل ایالت نیوهمپشایر در ژانویه ۲۰۲۴ میلادی حدود ۲۵ هزار تماس رباتیک با ساکنان این ایالت گرفته شده است.

به گزارش آنلاین؛ فورملا اعلام کرد تحقیقات منبع تماس‌های رباتیک را به ۲ شرکت تگزاسی به نام‌های «لایف کورپوریشن» و «لینگوتلکام» مرتبط کرده است. تاکنون هیچ اتهامی علیه شرکت‌ها یا مالک لایف کورپوریشن ثبت نشده است.

تحقیق در این زمینه همچنان ادامه دارد و تخمین زده می‌شود موسسات دیگر نیز در این زمینه درگیر باشند. مقامات نیروهای مجری قانون فدرال هم اعلام کرده اند درباره این پرونده تحقیق می‌کنند.

فورملا در یک کنفرانس خبری گفت: ما نامه توقف و انصراف به شرکت لایف کورپوریشن فرستادیم و به آن دستور دادیم سریعا نقض قانون انتخابات ایالت را متوقف کند. همچنین یک پرونده تحقیقات جنایی باز کردیم و اقدامات بعدی در این زمینه را اتخاذ می‌کنیم. در این زمینه اخطار حفظ اسناد و احضاریه‌هایی را به لایف کورپوریشن، لینگو تلکام و دیگر افراد یا موسسات نیز می‌فرستیم.

کمیسیون فدرال ارتباطات آمریکا نیز یک نامه توقف و انصراف به شرکت لینگوتلکام فرستاده است.

این صوت دیپ فیک باکمک ابزار هوش مصنوعی شرکت «ElevenLabs» ساخته شده است. این شرکت می‌گوید به جلوگیری از سوء استفاده از ابزارهای هوش مصنوعی صوتی متعهد است و هر گونه حادثه سوء استفاده را بسیار جدی می‌گیرد.

در این میان کمیسیون فدرال ارتباطات آمریکا قصد دارد تماس‌های رباتیک با صوت‌های تولید شده با هوش مصنوعی را ممنوع کند.

310310

تیم تحریریه بین المللی

تحلیلگر اخبار خارجی با تمرکز بر رویدادهای امور خاورمیانه. با توانایی درک عمیق از تاریخ و جغرافیا، به شما اخبار جذاب و تحلیل‌هایی را درباره تحولات سیاسی، اقتصادی و امنیتی در منطقه خاورمیانه ارائه می‌دهم. با استفاده از روش‌های تحلیلی و استراتژیک، به شما دیدی کامل از رویدادهای خاورمیانه می‌دهم.
دکمه بازگشت به بالا