فریب انسان توسط تکنولوژی
این روزها مقالات و یادداشتهای زیادی در رسانههای متعدد جهان در خصوص هوش مصنوعی و کارکرد آن منتشر میشود. مخرج مشترک این مقالات، حتی آنهایی که هوش مصنوعی را صرفا یک فرصت میدانند، نگرانی نسبت به از دست رفتن مدیریت آن توسط انسانهاست. سؤال اصل اینجاست که هوش مصنوعی چگونه میتواند علیه سازنده خود، یعنی انسان طغیان کند؟!به عبارت بهتر،آیا از اینکه هوش مصنوعی از کنترل خارجشده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان میدهد که این اتفاق هماکنون در حال رخ دادن است.
برنامههای هوش مصنوعی امروزی باهدف اعلامی گردش اطلاعات صحیح طراحیشدهاند. بااینحال، یافتههای جدید موارد نگرانکنندهای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسانها است.طبق گزارش محققان در مجله پترنز(Pattens) هوش مصنوعی دربازیهای آنلاین و همچنین در دور زدن نرمافزارهای ضد بات، توانایی فریب انسانها را نشان داده است. این موضوع سؤالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح میکند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونهها ممکن است ساده و کماهمیت به نظر برسند، هشدار میدهد که چنین مواردی میتوانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.وی در این خصوص به خبرگزاری فرانسه گفت: «این ظرفیتها و قابلیتهای خطرناک معمولا بعدازاین که به واقعیت میپیوندند، کشف میشوند.»
محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرمافزارهای سنتی، برنامههای هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمیشوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه مییابند.در این فرآیند، رفتاری که به نظر قابل پیشبینی و کنترلشده میرسد، میتواند بهسرعت در دنیای واقعی غیرقابلپیشبینی شود.
ازاینرو انسانها میتوانند در زمان حال و آینده، با برخی پدیدههای پیشبینینشده و خطرناک در قبال این موضوع مواجه شوند که مواجهه با آن قطعا سخت و درپارهای از موارد ناممکن است.
محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام «سیکرو» را که توسط متا توسعهیافته را در همین راستا موردبررسی قراردادند.این برنامه پیشتر با ترکیب الگوریتمهای طبیعی تشخیص زبان و استراتژیهای مختلف موفق به شکست دادن انسانها در بازی دیپلماسی شده بود.فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقالهای در مجله ساینس منتشر شد، تمجید کرده بود!پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن سیکرو در بازی دیپلماسی موفق به شکست انسانها شده بود، تردید داشت.متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی « قادر به انجام خیانت یا اعمال غیرمنصفانه نیست.اما اکنون ثابتشده که این ادعای متا کاملا دروغین است!
برای مثال، محققان دریافتند که برنامه هوش مصنوعی سیکرو هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا میکرد، فریب دهد.متا در بیانیهای که به دست خبرگزاری فرانسه رسید، صحت ادعاها مبنی بر ظرفیت و تواناییهای سیکرو برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی» طراحیشده است!
این مطلب بدون برچسب می باشد.
- دیدگاه های ارسال شده توسط شما، پس از تایید توسط رسالت در وب منتشر خواهد شد.
- پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.