ریشههای ترس بشر از هوش مصنوعی
تکنوفوبیا و فنهراسی در مواجهه با پیشرفتهای فناورانه انسان همواره در میان جوامع وجود داشته است. این امر ریشههای گوناگونی دارد. یکی این است که انسان أساسا در مواجهه با تغییر دچار اضطراب میشود و نوع انسانها، میل به تغییرات اساسی در زندگی خود ندارند، ولو اینکه بعد از مدتی تأثیر مثبت آن تغییر را بچشند و از آن پس بدون آن مؤلفه تغییرآفرین، نتوانند زندگی کنند. دلیل دیگر این است که انسان خیالش از دستساختههای خودش کاملا راحت نیست. اینکه این دستساختهها روزی بتوانند از تسخیر انسان آزاد شوند و انسان را تحت سلطه خود درآورند، توهمی است که انسانها را میترساند.
آنها خود آفریدههایی هستند که علیه خالق خود طغیان میکنند و ادیان براهیمی هم بر طغیان انسان علیه پروردگار خود، صحه میگذارند. هرچند که در ادبیات دینی این طغیان همواره به خود انسانها آسیب میرساند و نه به خداوند. اما مهم این است که مسئله طغیان مخلوق در ذهن انسان، مسئلهای آشناست. از سوی دیگر انسانها خاطره دورانی را دارند که در آن مقهور طبیعت بودند. انسان امروز خود را بر طبیعت چیره و مسلط میدید، اما هزاران سال پیش، بشر در مواجهه با طبیعت سراسر ناتوانی بود. در دوره انسانهای نخستین این ناتوانی بسیار بیشتر هم بود. پس بازگشت انسان به دوره مقهوریت، انسان مدرن را با هراس مواجه میسازد.
اما این فنهراسی در مورد دو فناوری نوین، خود را بسیار بیشتر و جدیتر نشان میدهد. این دو فناوری عبارت است از هوش مصنوعی و متاورس. هوش مصنوعی، با ترس انسان از خودساخته رابطه بسیار زیادی دارد. چراکه این ابزار میتواند از مهمترین قوه و قدرت انسان بهرهمند گردد، قوه تعقل. انسان خود را به نطق و عقل میشناسد. او در رؤیا یا واقعیت، با همین قوه تعقل میتواند موجوداتی بزرگتر از خود، توانمندتر از خود و خطرناکتر از خود را نابود کند. انسان خود را مدیون عقل و هوشش میداند و دستیابی یک موجود دیگر به این ابزار، حتی در دل تکنولوژیستترین افراد هم برای لحظهای تردید و اضطراب وارد میسازد. چنانکه میبینیم ترس از رباتها و شورش آنها علیه انسان همواره دستمایه داستانهای علمی و تخیلی بوده است. اما حتی اگر این افقهای تاریک را در نظر نگیریم و هوش مصنوعی را به شکل امروزیاش منحصر بدانیم، باز هم نمیتوان از چالشها و آسیبهای آن آسودهخاطر بود. بشر امروز با انواع معضلاتی که تکنولوژی برایش به ارمغان آورده دست و پنجه نرم میکند. او میداند که اینترنت، چه در سطح فردی، چه در سطح اجتماعی و چه در سطح ملی، چه خطرهایی آفرید و با این تجربه، دیگر نمیتواند نسبت به فناوریهای نوپدید خوشبینی کودکانه قدیمیاش را داشته باشد. از این رو از همان ابتدای مطرح شدن فناوری هوش مصنوعی، ارباب فناوری نسبت به خطرات آن مشغول اظهار نظر هستند.
وبگاه مجمع جهانی اقتصاد اخیراً طی یادداشتی کوتاه به بررسی نگرانیها و راهکارهای متولیان حوزه امنیت سایبری در مواجهه با هوش مصنوعی پرداخته است. آشکار شدن روزافزون ظرفیتهای تحولآفرین هوش مصنوعی مولد، بحث و گفتوگو درباره خطرات و نگرانیهای مرتبط با پیشرفتهای آینده این فناوری را داغ کرده است. وابسته شدن جوامع به هوش مصنوعی، از کنترل خارج شدن سیستمها، عدم تطابق اهداف فناوری با ارزشهای انسانی و چشمانداز رقابت در پرتو این فناوری، در زمره موضوعاتی هستند که نقل محافل کارشناسی شدهاند.
به گزارش زاویه به عقیده کارشناسان، رهبران امنیت سایبری علاوه بر ضرورت بررسی خطرات بلندمدت این فناوری با خطرات مختلف و فوری برای پذیرش گسترده سیستمهای هوش مصنوعی مولد روبه رو هستند. نمونههای بسیاری از نقض و درز اطلاعات از طریق این سیستمها، مانند حادثه آپلود ناخواسته کد منبع داخلی شرکت سامسونگ در «ChatGPT»، نشان میدهد، چگونه پیشرفتهای هوش مصنوعی موجب ایجاد آسیبپذیریهای جدید برای امنیت سایبری میشود. با توجه به این که رهبران امنیت سایبری جهان باید اقدامات فوری برای برطرف کردن این نگرانیها انجام دهند، مشخص کردن شاخصترین مسائل این حوزه ضروری است.
نگرانیهای مدیران ارشد امنیت اطلاعات (CISO) درباره پیشرفتهای اخیر هوش مصنوعی قابلیتهای هوش مصنوعی مولد هزینه توسعه و راهاندازی حملات سایبری مانند فیشینگ، تولید کدهای مخرب و جعل عمیق را کاهش و امکان خودکارسازی و انجام چنین حملاتی را افزایش میدهد. بنابراین، هوش مصنوعی مولد، تشخیص و سوءاستفاده از آسیبپذیریها و شکافهای امنیتی را برای مجرمان سایبری آسانتر میکند.
استفاده نادرست از سیستمهای هوش مصنوعی مولد طیفی از چالشها، از جمله افشای ناخواسته اطلاعات حساس، را به همراه دارد. همچنین ممکن است، استفاده از اطلاعات محرمانه بهطور عمدی یا سهوی برای آموزش سیستمهای هوش مصنوعی مولد، محرمانگی دادهها را به چالش بکشد. این خطر نیز وجود دارد که سیستمهای هوش مصنوعی مولد کارهایی را که قرار نیست، انجام دهند، برای مثال تزریق پرسش میتواند، منجر به ارائه نتایج نامطلوب شود.
اثبات یکپارچگی مدلهای هوش مصنوعی دشوار است. کدهای پیچیدهای که برای توسعه مدلها استفاده میشوند، همیشه بهطور کامل، حتی توسط خود توسعهدهندگان، درک نمیشوند. این مسئله منجر به عدم شفافیت سیستمها میشود و اعتماد به آنها را سختتر میکند. علاوهبر این، رویکرد امنیتی جامع و کنترلهای کافی نیز در طراحی و توسعه سیستمهای هوش مصنوعی مولد وجود ندارد.
هزینه پیشرفت هوش مصنوعی مولد چند وجهی است و مربوط به خرید، توسعه و پیادهسازی این سیستمها میشود. علاوهبراین، افزایش مصرف انرژی ارتباط تنگاتنگی با میزان استفاده از سیستمهای هوش مصنوعی دارد. هزینههای مازادی نیز وجود دارد که مربوط به تیم امنیت سایبری برای ارتقای مهارت کارکنان، راهاندازی کمپینهای آگاهسازی و توسعه راههای جدید برای ایمنسازی این سیستمها میشود.
اقدامات کارآمد در مواجهه با چالشهای جدید مرتبط با هوش مصنوعی
سازمانهای بسیاری درحال برداشتن گامهای ابتدایی برای مدیریت مسائل نوظهور در رابطه با پیامدهای توسعه سیستمهای هوش مصنوعی مولد در حوزه امنیت سایبری و فراتر از آن هستند؛ اما به اقدامات بسیار بیشتری برای درک جامع این پیامدها و پرداختن به آنها نیاز است که در ادامه به آنها اشاره میشود:
تشویق کارمندان به آزمون و خطا، بحث و اشتراک دیدگاهها و نگرانیها درباره این فناوری به پذیرش موفقیتآمیز، پرورش فرهنگ تعامل و نوآوریهای مرتبط با فناوری هوش مصنوعی کمک میکند.
ایجاد کارگروههای هدفمند در راستای رسیدگی به چالشهای اولویتدار، از حفظ مالکیت معنوی گرفته تا تهدیدات داخلی، اقدامی کارآمد در مسیر مواجهه با چالشهای یاد شده محسوب میشود.
تعریف اصول و خطوط راهنما برای استفاده از سيستمهای هوش مصنوعی که توسط تیمهای میان رشتهای در بخشهای امنیت سایبری، فناوری اطلاعات، حقوقی، منابع انسانی، حفاظت از دادهها و … تدوین شدهاند، نقشی کلیدی در این مواجهه ایفا میکنند.
اجرای برنامههای آموزش هوش مصنوعی و آگاهی در سطح سازمان برای تقویت استفاده مسئولانه از ابزارها و درک خطرات مرتبط با توسعه هوش مصنوعی، در این شرایط، امری حیاتی محسوب میشود.
تجدید نظر در استراتژیها و سیاستهای امنیت سایبری موجود برای مقابله با تهدیدات سایبری نوظهور مرتبط با پیشرفتهای هوش مصنوعی، از جمله الزام کارکنان به افشای استفاده از ابزارهای مولد هوش مصنوعی و محدود کردن استفاده از آنها یا ارائه دستورالعملهایی درباره نحوه به کارگیری آنها، گام کارآمد دیگری در این عرصه محسوب میشود.
با تغییر ماهیت و شکل بروز تهدیدات سایبری در عصر توسعه هوش مصنوعی، تطبیق کنترلهای امنیت سایبری با توجه به تغییر چشمانداز مخاطرات، امری الزامی و حیاتی به شمار میرود.
ضرورت اقدام چند ذینفع
در اکثر سازمانها اقدامات اولیهای انجام شده است که رویکردهای تاکتیکی و مجزایی را دنبال میکند. گذر به رویکردی جامع برای رسیدگی به پیامدهای امنیت سایبری ناشی از هوش مصنوعی مولد به تازگی آغاز شده است. به عقیده کارشناسان، ایجاد مبانی امنیت سایبری برای هوش مصنوعی مولد لازمه ایجاد هوش مصنوعی قابل اعتماد، اخلاقی و مسئولانه است.
در این چشمانداز، رهبران امنیت سایبری در موقعیتهایی از جمله شناسایی و استفاده از پتانسیل دفاعی هوش مصنوعی، شفافسازی حکمرانی خطرات امنیت سایبری و ارائه اطلاعات درباره مقرراتی قرار میگیرند که برای اطمینان از پذیرش و استفاده ایمن از این فناوری لازم است.بدون شک، اتخاذ رویکردی جامع و چند ذینفع برای هدایت استفاده از هوش مصنوعی مولد ضروری است. همکاری سازمانها، قانونگذاران و فناوران میتواند، به استفاده مسئولانه از قدرت تحولآفرین این پیشرفتهای تکنولوژیک بینجامد و آینده دیجیتالی بشر را تضمین کند. مجمع جهانی اقتصاد، در همین راستا، ائتلاف حکمرانی هوش مصنوعی را در ژوئن ۲۰۲۳، با هدف ارائه راهنمایی درباره طراحی و توسعه و استقرار مسئولانه سیستمهای هوش مصنوعی تشکیل داد.
هوش مصنوعی
- دیدگاه های ارسال شده توسط شما، پس از تایید توسط رسالت در وب منتشر خواهد شد.
- پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.