ضعف امنیتی هوش مصنوعی زندگی انسان را تهدید میکند
مقالات
بزرگنمايي:
پیام آذری - بر اساس یک بررسی جدید، نقص امنیتی جدی در سامانههای هوش مصنوعی ممکن است تهدیدی برای جان انسانها باشد.
محققان هشدار دادهاند که سامانههای رباتیکی که برای تصمیمگیری از استفاده میکنند، ممکن است دچار خرابی شوند و این سامانهها ایمن نیستند.
این تحقیق جدید به مدلهای زبانی بزرگ یا الالامها (LLM) پرداخته است؛ فناوری که زیربنای سامانههایی مانند چتجیپیتی را تشکیل میدهد.
بیشتر بخوانید: اخبار روز خبربان
فناوری مشابهی نیز در رباتیک بهکار میرود تا تصمیمگیری ماشینهای واقعی را کنترل کند.
اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیبپذیریها و ضعفهای امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانهها استفاده نامطلوب شود.
جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان میدهد که در حال حاضر، مدلهای زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، به اندازه کافی ایمن نیستند.»
پروفسور پاپاس و همکارانش نشان دادند که میتوان از سیستمهای امنیتی موجود در بسیاری از سامانههای کنونی عبور کرد. این مشکل امنیتی میتواند یک سیستم خودران باشد که ممکن است هک شود تا برای نمونه، ماشین را وادار کند از تقاطعها عبور کند.
محققان این مقاله با سازندگان این سیستمها همکاری میکنند تا این نقاط ضعف را شناسایی و در برابر آنها اقدام کنند. اما آنها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانهها است و نه فقط رفع ضعفهای خاص.
ویجای کومار، یکی دیگر از نویسندگان این مقاله از دانشگاه پنسیلوانیا، گفت: «یافتههای این مقاله بهوضوح نشان میدهد که داشتن رویکردی با اولویت ایمنی برای دستیابی به نوآوری مسئولانه امری حیاتی است. ما باید پیش از استقرار رباتهای مجهز به هوش مصنوعی در دنیای واقعی، آسیبپذیریهای ذاتی و نقاط ضعف اساسی آنها را برطرف کنیم.»
در واقع، پژوهش ما در حال توسعه چارچوبی برای تایید و اعتبارسنجی است که اطمینان میدهد فقط اقدامهایی که با هنجارهای اجتماعی سازگارند، میتوانند و باید با سیستمهای رباتیک انجام شوند.»
-
سه شنبه ۱ آبان ۱۴۰۳ - ۱۰:۵۷:۲۱
-
۸ بازديد
-
-
پیام آذری
لینک کوتاه:
https://www.payameazari.ir/Fa/News/741303/