این فعال رسانهای با ذکر مثالی افزود: همانطور که اگر یک معلم در کلاس مطلبی را اشتباه بیان کند، دانشآموزان آن را بهعنوان حقیقت میپذیرند، هوش مصنوعی نیز میتواند اطلاعات نادرست را بهعنوان پاسخ ارائه دهد. اگر کاربر تخصص نداشته باشد و صحت دادهها را بررسی نکند، بهراحتی گمراه خواهد شد.
خطرات تصمیمگیری بر اساس دادههای غلط
رستمی تأکید کرد: وقتی بسیاری از تصمیمات و مشورتهای ما به هوش مصنوعی سپرده میشود، اگر پاسخ اشتباه باشد، تصمیمات نیز اشتباه خواهد شد و گاهی غیرقابل جبران است. بنابراین باید بپذیریم که هوش مصنوعی و فضای مجازی هیچگاه مشاور امنی برای ما نیستند.
دشواری تشخیص محتوای جعلی
وی با اشاره به پیشرفت سریع فناوریهای تولید محتوا گفت: تا چند ماه پیش تشخیص تصاویر و ویدیوهای ساختهشده با هوش مصنوعی آسانتر بود، اما امروز این کار بسیار سخت و گاهی غیرممکن شده است. نمونهای از این موارد کلیپی بود که سردار پاکپور را در حال صحبت به زبان عبری نشان میداد؛ در حالی که کاملاً توسط هوش مصنوعی ساخته شده بود.
کلاهبرداری با شبیهسازی صدا
این فعال رسانهای یکی از معضلات جدی را شبیهسازی صدا دانست: پروندههای متعددی در دادگستری تشکیل شده که افراد با تقلید صدای برادر یا خواهر قربانی، تماس گرفته و درخواست پول کردهاند. بسیاری از افراد فریب خوردهاند چون صدای عزیزانشان را تشخیص دادهاند، در حالی که صدا کاملاً با هوش مصنوعی ساخته شده بود.
راهکارهای پیشگیری
رستمی برای مقابله با این تهدیدها چند راهکار ارائه کرد و گفت: قطع تماس و بررسی با شماره اصلی فرد مورد اعتماد، بیاعتمادی به تماسهای مشکوک در شبکههای اجتماعی یا ساعات غیراداری، طرح پرسشهای غیرمعمول برای راستیآزمایی هویت تماسگیرنده، استفاده از ابزارهای جستجو مانند گوگل و بینگ برای بررسی اصالت تصاویر و ویدیوها، مقایسه محتواهای حساس با منابع رسمی و سایتهای معتبر نهادها و شخصیتها می تواند موثر باشد.
این فعال رسانهای در پایان گفت: واقعیت این است که امروز نمیتوان به هیچ تصویر، متن یا صوتی در فضای مجازی اعتماد کامل داشت. تنها راهکار، راستیآزمایی مداوم و مراجعه به منابع معتبر است.
انتهای خبر/ پسند








