ریشه‌های ترس بشر از هوش مصنوعی - روزنامه رسالت | روزنامه رسالت
شناسه خبر : 93112
  پرینتخانه » فرهنگی, مطالب روزنامه تاریخ انتشار : 30 مهر 1402 - 6:17 |
نگرش فعالان حوزه فناوری نسبت به هوش مصنوعی بدبینانه است

ریشه‌های ترس بشر از هوش مصنوعی

تکنوفوبیا و فن‌هراسی در مواجهه با پیشرفت‌های فناورانه انسان همواره در میان جوامع وجود داشته است. این امر ریشه‌های گوناگونی دارد. یکی این است که انسان أساسا در مواجهه با تغییر دچار اضطراب می‌شود و نوع انسان‌ها، میل به تغییرات اساسی در زندگی خود ندارند، ولو اینکه بعد از مدتی تأثیر مثبت آن تغییر را بچشند و از آن پس بدون آن مؤلفه تغییرآفرین، نتوانند زندگی کنند.
ریشه‌های ترس بشر از هوش مصنوعی

تکنوفوبیا و فن‌هراسی در مواجهه با پیشرفت‌های فناورانه انسان همواره در میان جوامع وجود داشته است. این امر ریشه‌های گوناگونی دارد. یکی این است که انسان أساسا در مواجهه با تغییر دچار اضطراب می‌شود و نوع انسان‌ها، میل به تغییرات اساسی در زندگی خود ندارند، ولو اینکه بعد از مدتی تأثیر مثبت آن تغییر را بچشند و از آن پس بدون آن مؤلفه تغییرآفرین، نتوانند زندگی کنند. دلیل دیگر این است که انسان خیالش از دست‌ساخته‌های خودش کاملا راحت نیست. اینکه این دست‌ساخته‌ها روزی بتوانند از تسخیر انسان آزاد شوند و انسان را تحت سلطه خود درآورند، توهمی است که انسان‌ها را می‌ترساند.

آن‌ها خود آفریده‌هایی هستند که علیه خالق خود طغیان می‌کنند و ادیان براهیمی هم بر طغیان انسان علیه پروردگار خود، صحه می‌گذارند. هرچند که در ادبیات دینی این طغیان همواره به خود انسان‌ها آسیب می‌رساند و نه به خداوند. اما مهم این است که مسئله طغیان مخلوق در ذهن انسان، مسئله‌ای آشناست. از سوی دیگر انسان‌ها خاطره دورانی را دارند که در آن مقهور طبیعت بودند. انسان امروز خود را بر طبیعت چیره و مسلط می‌دید، اما هزاران سال پیش، بشر در مواجهه با طبیعت سراسر ناتوانی بود. در دوره انسان‌های نخستین این ناتوانی بسیار بیشتر هم بود. پس بازگشت انسان به دوره مقهوریت، انسان مدرن را با هراس مواجه می‌سازد.

اما این فن‌هراسی در مورد دو فناوری نوین، خود را بسیار بیشتر و جدی‌تر نشان می‌دهد. این دو فناوری عبارت است از هوش مصنوعی و متاورس. هوش مصنوعی، با ترس انسان از خودساخته رابطه بسیار زیادی دارد. چراکه این ابزار می‌تواند از مهم‌ترین قوه و قدرت انسان بهره‌مند گردد، قوه تعقل. انسان خود را به نطق و عقل می‌شناسد. او در رؤیا یا واقعیت، با همین قوه تعقل می‌تواند موجوداتی بزرگ‌تر از خود، توانمندتر از خود و خطرناک‌تر از خود را نابود کند. انسان خود را مدیون عقل و هوشش می‌داند و دستیابی یک موجود دیگر به این ابزار، حتی در دل تکنولوژیست‌ترین افراد هم برای لحظه‌ای تردید و اضطراب وارد می‌سازد. چنانکه می‌بینیم ترس از ربات‌ها و شورش آن‌ها علیه انسان همواره دستمایه داستان‌های علمی و تخیلی بوده است. اما حتی اگر این افق‌های تاریک را در نظر نگیریم و هوش مصنوعی را به شکل امروزی‌اش منحصر بدانیم، باز هم نمی‌توان از چالش‌ها و آسیب‌های آن آسوده‌خاطر بود. بشر امروز با انواع معضلاتی که تکنولوژی برایش به ارمغان آورده دست و پنجه نرم می‌کند. او می‌داند که اینترنت، چه در سطح فردی، چه در سطح اجتماعی و چه در سطح ملی، چه خطرهایی آفرید و با این تجربه، دیگر نمی‌تواند نسبت به فناوری‌های نوپدید خوش‌بینی کودکانه قدیمی‌اش را داشته باشد. از این رو از همان ابتدای مطرح شدن فناوری هوش مصنوعی، ارباب فناوری نسبت به خطرات آن مشغول اظهار نظر هستند. 

وبگاه مجمع جهانی اقتصاد اخیراً طی یادداشتی کوتاه به بررسی نگرانی‌ها و راهکارهای متولیان حوزه امنیت سایبری در مواجهه با هوش مصنوعی پرداخته است. آشکار شدن روزافزون ظرفیت‌های تحول‌آفرین هوش مصنوعی مولد، بحث و گفت‌وگو درباره خطرات و نگرانی‌های مرتبط با پیشرفت‌های آینده این فناوری را داغ کرده است. وابسته شدن جوامع به هوش مصنوعی، از کنترل خارج شدن سیستم‌ها، عدم تطابق اهداف فناوری با ارزش‌های انسانی و چشم‌انداز رقابت در پرتو این فناوری، در زمره موضوعاتی هستند که نقل محافل کارشناسی شده‌اند.

به گزارش زاویه به عقیده کارشناسان، رهبران امنیت سایبری علاوه بر ضرورت بررسی خطرات بلندمدت این فناوری با خطرات مختلف و فوری برای پذیرش گسترده سیستم‌های هوش مصنوعی مولد روبه رو هستند. نمونه‌های بسیاری از نقض و درز اطلاعات از طریق این سیستم‌ها، مانند حادثه‌ آپلود ناخواسته کد منبع داخلی شرکت سامسونگ در «ChatGPT»، نشان می‌دهد، چگونه پیشرفت‌های هوش مصنوعی موجب ایجاد آسیب‌پذیری‌های جدید برای امنیت سایبری می‌شود. با توجه به این که رهبران امنیت سایبری جهان باید اقدامات فوری برای برطرف کردن این نگرانی‌ها انجام دهند، مشخص کردن شاخص‌ترین مسائل این حوزه ضروری است.

نگرانی‌های مدیران ارشد امنیت اطلاعات (CISO) درباره پیشرفت‌های اخیر هوش مصنوعی قابلیت‌های هوش مصنوعی مولد هزینه توسعه و راه‌اندازی حملات سایبری مانند فیشینگ، تولید کدهای مخرب و جعل عمیق را کاهش و امکان خودکارسازی و انجام چنین حملاتی را افزایش می‌دهد. بنابراین، هوش مصنوعی مولد، تشخیص و سوءاستفاده از آسیب‌پذیری‌ها و شکاف‌های امنیتی را برای مجرمان سایبری آسان‌تر می‌کند.

استفاده نادرست از سیستم‌های هوش مصنوعی مولد طیفی از چالش‌ها، از جمله افشای ناخواسته اطلاعات حساس، را به همراه دارد. همچنین ممکن است، استفاده از اطلاعات محرمانه به‌طور عمدی یا سهوی برای آموزش سیستم‌های هوش مصنوعی مولد، محرمانگی داده‌ها را به چالش بکشد. این خطر نیز وجود دارد که سیستم‌های هوش مصنوعی مولد کارهایی را که قرار نیست، انجام دهند، برای مثال تزریق پرسش می‌تواند، منجر به ارائه نتایج نامطلوب شود.
اثبات یکپارچگی مدل‌های هوش مصنوعی دشوار است. کدهای پیچیده‌ای که برای توسعه مدل‌ها استفاده می‌شوند، همیشه به‌طور کامل، حتی توسط خود توسعه‌دهندگان، درک نمی‌شوند. این مسئله منجر به عدم شفافیت سیستم‌ها می‌شود و اعتماد به آن‌ها را سخت‌تر می‌کند. علاوه‌بر این، رویکرد امنیتی جامع و کنترل‌های کافی نیز در طراحی و توسعه سیستم‌های هوش مصنوعی مولد وجود ندارد.

هزینه پیشرفت هوش مصنوعی مولد چند وجهی است و مربوط به خرید، توسعه و پیاده‌سازی این سیستم‌ها می‌شود. علاوه‌براین، افزایش مصرف انرژی ارتباط تنگاتنگی با میزان استفاده از سیستم‌های هوش مصنوعی دارد. هزینه‌های مازادی نیز وجود دارد که مربوط به تیم امنیت سایبری برای ارتقای مهارت کارکنان، راه‌اندازی کمپین‌های آگاه‌سازی و توسعه راه‌های جدید برای ایمن‌سازی این سیستم‌ها می‌شود.

 اقدامات کارآمد در مواجهه با چالش‌های جدید مرتبط با هوش مصنوعی
سازمان‌های بسیاری درحال برداشتن گام‌های ابتدایی برای مدیریت مسائل نوظهور در رابطه با پیامدهای توسعه سیستم‌های هوش مصنوعی مولد در حوزه امنیت سایبری و فراتر از آن هستند؛ اما به اقدامات بسیار بیشتری برای درک جامع این پیامدها و پرداختن به آن‌ها نیاز است که در ادامه به آن‌ها اشاره می‌شود:
تشویق کارمندان به آزمون و خطا، بحث و اشتراک دیدگاه‌ها و نگرانی‌ها درباره این فناوری به پذیرش موفقیت‌آمیز، پرورش فرهنگ تعامل و نوآوری‌های مرتبط با فناوری هوش مصنوعی کمک می‌کند.

ایجاد کارگروه‌های هدفمند در راستای رسیدگی به چالش‌های اولویت‌دار، از حفظ مالکیت معنوی گرفته تا تهدیدات داخلی، اقدامی کارآمد در مسیر مواجهه با چالش‌های یاد شده محسوب می‌شود.
تعریف اصول و خطوط راهنما برای استفاده از سيستم‌های هوش مصنوعی که توسط تیم‌های میان رشته‌ای در بخش‌های امنیت سایبری، فناوری اطلاعات، حقوقی، منابع انسانی، حفاظت از داده‌ها و … تدوین شده‌اند، نقشی کلیدی در این مواجهه ایفا می‌کنند.

اجرای برنامه‌های آموزش هوش مصنوعی و آگاهی در سطح سازمان برای تقویت استفاده مسئولانه از ابزارها و درک خطرات مرتبط با توسعه هوش مصنوعی، در این شرایط، امری حیاتی محسوب می‌شود.
تجدید نظر در استراتژی‌ها و سیاست‌های امنیت سایبری موجود برای مقابله با تهدیدات سایبری نوظهور مرتبط با پیشرفت‌های هوش مصنوعی، از جمله الزام کارکنان به افشای استفاده از ابزارهای مولد هوش مصنوعی و محدود کردن استفاده از آن‌ها یا ارائه دستورالعمل‌هایی درباره نحوه به کارگیری آن‌ها، گام کارآمد دیگری در این عرصه محسوب می‌شود.
با تغییر ماهیت و شکل بروز تهدیدات سایبری در عصر توسعه هوش مصنوعی، تطبیق کنترل‌های امنیت سایبری با توجه به تغییر چشم‌انداز مخاطرات، امری الزامی و حیاتی به شمار می‌رود.

 ضرورت اقدام چند ذینفع
در اکثر سازمان‌ها اقدامات اولیه‌ای انجام شده است که رویکردهای تاکتیکی و مجزایی را دنبال می‌کند. گذر به رویکردی جامع برای رسیدگی به پیامدهای امنیت سایبری ناشی از هوش مصنوعی مولد به تازگی آغاز شده است. به عقیده کارشناسان، ایجاد مبانی امنیت سایبری برای هوش مصنوعی مولد لازمه ایجاد هوش مصنوعی قابل اعتماد، اخلاقی و مسئولانه است.

در این چشم‌انداز، رهبران امنیت سایبری در موقعیت‌هایی از جمله شناسایی و استفاده از پتانسیل دفاعی هوش مصنوعی، شفاف‌سازی حکمرانی خطرات امنیت سایبری و ارائه اطلاعات درباره مقرراتی قرار می‌گیرند که برای اطمینان از پذیرش و استفاده ایمن از این فناوری لازم است.بدون شک، اتخاذ رویکردی جامع و چند ذینفع برای هدایت استفاده از هوش مصنوعی مولد ضروری است. همکاری سازمان‌ها، قانون‌گذاران و فناوران می‌تواند، به استفاده مسئولانه از قدرت تحول‌آفرین این پیشرفت‌های تکنولوژیک بینجامد و آینده دیجیتالی بشر را تضمین کند. مجمع جهانی اقتصاد، در همین راستا، ائتلاف حکمرانی هوش مصنوعی را در ژوئن ۲۰۲۳، با هدف ارائه راهنمایی درباره طراحی و توسعه و استقرار مسئولانه سیستم‌های هوش مصنوعی تشکیل داد.

|
برچسب ها
به اشتراک بگذارید
تعداد دیدگاه : دیدگاه‌ها برای ریشه‌های ترس بشر از هوش مصنوعی بسته هستند

مجوز ارسال دیدگاه داده نشده است!

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط رسالت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.