هشدار دیپمایند گوگل: هوش جامع مصنوعی میتواند بشریت را برای همیشه نابود کند
اقتصادی
بزرگنمايي:
پیام آذری - به گزارش خبرگزاری خبرآنلاین و براساس گزارش دیجیاتو، دیپمایند گوگل مقالهای 145 صفحهای درباره امنیت هوش مصنوعی منتشر کرده که میگوید (AGI) ممکن است تا سال 2030 از راه برسد و «آسیبهای شدیدی» ایجاد کند اما برخی کارشناسان میگویند مفهوم هوش جامع مصنوعی هنوز بسیار مبهم است و زمان انتشار آن مشخص نیست؛ نمیتوان اکنون آن را بهدرستی ارزیابی کرد.
بیشتر بخوانید: اخبار روز خبربان
دیپمایند گوگل در مقاله تحقیقاتی خود میگوید هوش مصنوعی سطح انسان میتواند سال 2030 به وجود بیاید و شاید به بشر آسیبهای شدیدی بزند. البته محققان دیپمایند مشخص نمیکنند این آسیبهای شدید دقیقاً چه خواهند بود اما به خطراتی که میتوانند «بشریت را برای همیشه نابود میکند،» اشاره کردهاند.
همچنین در این مقاله که یکی از نویسندگان آن «شین لگ» (Shane Legg)، از بنیانگذاران دیپمایند است، گفته نشده چگونه AGI میتواند منجر به انقراض و نابودی انسان شود. در واقع مقاله بیشتر روی مراحلی تمرکز کرده که دیپمایند فکر میکند باید برای کاهش تهدید و آسیب شدید از سوی AGI انجام شود.
هشدار دیپمایند درباره هوش جامع مصنوعی «دمیس هاسابیس»، مدیرعامل دیپمایند، پیشتر در مصاحبهای گفته بود هوش جامع مصنوعی طی 5 تا 10 سال آینده از راه خواهد رسید. او باور دارد سال 2030 تواناییهای هوش مصنوعی همسطح انسان خواهد بود. اکنون این شرکت در مقاله اخیرش به خطرات این فناوری پیشرفته پرداخته است.

محققان دیپمایند خطرات هوش مصنوعی پیشرفته را به 4 دسته اصلی تقسیم میکند: سوءاستفاده : استفاده عمدی افراد از هوش مصنوعی برای آسیبرساندن؛ ناهماهنگی : سیستمهایی که رفتارهای مضر ناخواسته را توسعه میدهند؛ اشتباهات : شکستهای غیرمنتظره در توسعه هوش مصنوعی بهدلیل نقص در طراحی یا آموزش مدلها که میتواند منجر به آسیبهایی شود که هوش مصنوعی متوجه آنها نیست؛ درنهایت خطرات ساختاری که به انگیزههای متضاد چندین طرف، ازجمله گروههای مختلف افراد، کشورها یا شرکتها و احتمالاً چندین سیستم هوش مصنوعی اشاره دارد.
پژوهش دیپمایند مورد انتقاد برخی متخصصان ایمنی هوش مصنوعی نیز قرار گرفته است. «آنتونی آگویر» (Anthony Aguirre)، همبنیانگذار و مدیر اجرایی مؤسسه Future of Life با محوریت ایمنی هوش مصنوعی، به فورچون گفته است اگرچه دیپمایند «تلاش تحسینبرانگیزی برای پرداختن به خطرات هوش جامع مصنوعی انجام داده، به اقدامات بسیار بیشتری نیاز است.» او میگوید:«همانطور که خود نویسندگان [مقاله] اشاره میکنند، هوش جامع مصنوعی میتواند بهزودی از راه برسد و بهسرعت خود را بهبود بخشد و از تواناییهای انسانی بسیار فراتر رود. چنین سیستمهایی ذاتاً غیرقابلپیشبینی هستند و ما به ساخت آنها بسیار نزدیکتر از درک چگونگی کنترلشان هستیم، البته اگر چنین چیزی ممکن باشد.»
همچنین «هایدی خلاف» (Heidy Khlaaf)، دانشمند ارشد هوش مصنوعی مؤسسه AI Now، به تککرانچ گفته هوش جامع مصنوعی هنوز تعریف واضحی ندارد؛ بههمین دلیل نمیتوان از نظر علمی آن را بررسی کرد.
«گری مارکوس»، استاد بازنشسته علوم شناختی دانشگاه نیویورک نیز میگوید هوش مصنوعی فعلی که مبتنیبر مدلهای زبانی بزرگ است، نمیتواند با هوش انسانی در همه حوزهها تطبیق پیدا کند، بهخصوص وقتی جنبههایی از هوش انسانی مانند توانایی یادگیری از نمونههای نسبتاً کم و استدلال مبتنیبر خرد جمعی را در نظر بگیریم.
227227
کد خبر 2056414
-
دوشنبه ۸ ارديبهشت ۱۴۰۴ - ۱۶:۵۲:۱۶
-
۱۱ بازديد
-

-
پیام آذری
لینک کوتاه:
https://www.payameazari.ir/Fa/News/819268/