۞ امام علی (ع) می فرماید:
هر کس از خود بدگویی و انتقاد کند٬خود را اصلاح کرده و هر کس خودستایی نماید٬ پس به تحقیق خویش را تباه نموده است.

موقعیت شما : صفحه اصلی » ويژه‌های خبری
هوش مصنوعی مشاور امنی نیست
هوش مصنوعی مشاور امنی نیست

هوش مصنوعی مشاور امنی نیست

فعال رسانه‌ای کرمانی گفت: اعتماد بی‌چون‌وچرا به پاسخ‌های این فناوری می‌تواند به تصمیمات اشتباه و حتی خسارت‌های جبران‌ناپذیر منجر شود. محمدنعیم رستمی در گفتگو با خبرنگار گروه اجتماعی پایگاه خبری «اقطاع خبر» با اشاره به گسترش استفاده از هوش مصنوعی در میان نسل‌های مختلف، به‌ویژه نسل جدید و حتی دهه شصتی‌ها که به فضای اینترنت […]


فعال رسانه‌ای کرمانی گفت: اعتماد بی‌چون‌وچرا به پاسخ‌های این فناوری می‌تواند به تصمیمات اشتباه و حتی خسارت‌های جبران‌ناپذیر منجر شود.

هوش مصنوعی مشاور امنی نیست

محمدنعیم رستمی در گفتگو با خبرنگار گروه اجتماعی پایگاه خبری «اقطاع خبر» با اشاره به گسترش استفاده از هوش مصنوعی در میان نسل‌های مختلف، به‌ویژه نسل جدید و حتی دهه شصتی‌ها که به فضای اینترنت پیوسته‌اند، گفت: امروز بسیاری از مردم برای کوچک‌ترین مسائل روزمره تا موضوعات مهمی مثل ازدواج، به هوش مصنوعی مراجعه می‌کنند. اما باید بدانیم اگر داده‌ای که این ابزارها بر اساس آن پاسخ می‌دهند صحیح نباشد، نتیجه نیز غلط خواهد بود.

این فعال رسانه‌ای با ذکر مثالی افزود: همان‌طور که اگر یک معلم در کلاس مطلبی را اشتباه بیان کند، دانش‌آموزان آن را به‌عنوان حقیقت می‌پذیرند، هوش مصنوعی نیز می‌تواند اطلاعات نادرست را به‌عنوان پاسخ ارائه دهد. اگر کاربر تخصص نداشته باشد و صحت داده‌ها را بررسی نکند، به‌راحتی گمراه خواهد شد.

خطرات تصمیم‌گیری بر اساس داده‌های غلط

رستمی تأکید کرد: وقتی بسیاری از تصمیمات و مشورت‌های ما به هوش مصنوعی سپرده می‌شود، اگر پاسخ اشتباه باشد، تصمیمات نیز اشتباه خواهد شد و گاهی غیرقابل جبران است. بنابراین باید بپذیریم که هوش مصنوعی و فضای مجازی هیچ‌گاه مشاور امنی برای ما نیستند.

دشواری تشخیص محتوای جعلی

وی با اشاره به پیشرفت سریع فناوری‌های تولید محتوا گفت: تا چند ماه پیش تشخیص تصاویر و ویدیوهای ساخته‌شده با هوش مصنوعی آسان‌تر بود، اما امروز این کار بسیار سخت و گاهی غیرممکن شده است. نمونه‌ای از این موارد کلیپی بود که سردار پاکپور را در حال صحبت به زبان عبری نشان می‌داد؛ در حالی که کاملاً توسط هوش مصنوعی ساخته شده بود.

کلاهبرداری با شبیه‌سازی صدا

این فعال رسانه‌ای یکی از معضلات جدی را شبیه‌سازی صدا دانست: پرونده‌های متعددی در دادگستری تشکیل شده که افراد با تقلید صدای برادر یا خواهر قربانی، تماس گرفته و درخواست پول کرده‌اند. بسیاری از افراد فریب خورده‌اند چون صدای عزیزانشان را تشخیص داده‌اند، در حالی که صدا کاملاً با هوش مصنوعی ساخته شده بود.

راهکارهای پیشگیری

رستمی برای مقابله با این تهدیدها چند راهکار ارائه کرد و گفت: قطع تماس و بررسی با شماره اصلی فرد مورد اعتماد، بی‌اعتمادی به تماس‌های مشکوک در شبکه‌های اجتماعی یا ساعات غیراداری، طرح پرسش‌های غیرمعمول برای راستی‌آزمایی هویت تماس‌گیرنده، استفاده از ابزارهای جستجو مانند گوگل و بینگ برای بررسی اصالت تصاویر و ویدیوها، مقایسه محتواهای حساس با منابع رسمی و سایت‌های معتبر نهادها و شخصیت‌ها می تواند موثر باشد.

این فعال رسانه‌ای در پایان گفت: واقعیت این است که امروز نمی‌توان به هیچ تصویر، متن یا صوتی در فضای مجازی اعتماد کامل داشت. تنها راهکار، راستی‌آزمایی مداوم و مراجعه به منابع معتبر است.

انتهای خبر/ پسند

 


———-
منبع:آرمان

پاسخ دادن

ایمیل شما منتشر نمی شود. فیلدهای ضروری را کامل کنید. *

*