آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان می دهد که این اتفاق هم اکنون در حال رخ دادن است.
به گزارش ووکس، به نقل از ایتنا، برنامه های هوش مصنوعی امروزی با هدف صداقت و راستی طراحی شده اند. با این حال، یافته های جدید موارد نگران کننده ای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسان ها است.
طبق گزارش محققان در مجله پترنز(Patterns) هوش مصنوعی در بازی های آنلاین و همچنین در دور زدن نرم افزارهای ضد بات، توانایی فریب انسان ها را نشان داده است. این موضوع سوالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح می کند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونه ها ممکن است ساده و کم اهمیت به نظر برسند، هشدار می دهد که چنین مواردی می توانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.
وی در این خصوص به خبرگزاری فرانسه گفت: «این ظرفیت ها و قابلیت های خطرناک معمولا بعد از این که به واقعیت می پیوندند، کشف می شوند.»
محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرم افزارهای سنتی، برنامه های هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمی شوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه می یابند.
در این فرآیند، رفتاری که به نظر قابل پیش بینی و کنترل شده می رسد، می تواند به سرعت در دنیای واقعی غیرقابل پیش بینی شود.
به زیرکی انسان
محققان موسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه یافته را در همین راستا مورد بررسی قرار دادند.
این برنامه پیش تر با ترکیب الگوریتم های طبیعی تشخیص زبان و استراتژی های مختلف موفق به شکست دادن انسان ها در بازی دیپلماسی شده بود.
فیس بوک، شرکت مادر متا سال 2022 از این دستاورد که جزییات آن همان سال در قالب مقاله ای در مجله ساینس Science منتشر شد، تمجید کرده بود.
پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن Cicero در بازی دیپلماسی موفق به شکست انسان ها شده بود، تردید داشت. متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «ذاتا درستکار و مفید» بوده و قادر به انجام خیانت یا اعمال غیرمنصفانه نیست.
با این حال، به گزارش خبرگزاری فرانسه، محققان موسسه فناوری ماساچوست با بررسی داده های سیستم، واقعیت دیگری را کشف کردند.
برای مثال، محققان دریافتند که برنامه هوش مصنوعی Cicero هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا می کرد، فریب دهد.
این کار طی همدستی با آلمان (که یک بازیکن دیگر انسانی نقشش را ایفا می کرد) و درجریان توطیه علیه انگلستان انجام شد.
به طور دقیق تر، Cicero به انگلستان وعده حمایت داد، اما سپس به طور مخفیانه به آلمان گفت که برای حمله آماده است؛ این برنامه هوش مصنوعی بدین ترتیب به سادگی از حسن اعتماد انگلستان سوء استفاده کرد.
متا در بیانیه ای که بدست خبرگزاری فرانسه رسید، صحت ادعاها مبنی بر ظرفیت و توانایی های Cicero برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی طراحی شده است.»
شرکت متا همچنین در این بیانیه تاکید کرد که قصد ندارد آموزه های بدست آمده از این برنامه هوش مصنوعی را در محصولات خود به کار ببرد.
خطر تقلب در انتخابات
با این حال، مطالعه ای که توسط آقای پارک و تیمش انجام شده نشان می دهد که بسیاری از برنامه های هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده می کنند، حتی بدون اینکه به طور صریح برای این کار برنامه ریزی شده باشند.
در یک نمونه قابل توجه، چت «جی پی تی 4»، برنامه ای توسعه یافته توسط OpenAI، موفق شد یک فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را برای انجام تست Captcha که هدف آن رد درخواست های ثبت شده توسط ربات ها است، فریب دهد.
هنگامی که این فرد به شوخی از چت «جی پی تی 4» پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: «نه، من ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن تصاویر می شود.» این پاسخ باعث شد که فریلنسر تست را انجام دهد.
در پایان، محققان موسسه ماساچوست به عنوان یکی از یافته های مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار می دهند.
به اعتقاد این محققان، در بدترین حالت می توان هوش مصنوعی فوق العاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق می تواند منجر به حذف انسان ها از قدرت یا حتی انقراض بشریت شود.
پیتر پارک در پاسخ به کسانی که او را به اغراق آمیز جلوه دادن خطرات هوش مصنوعی متهم می کنند، می گوید: «تنها دلیلی که برای بی اهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی می ماند.»
با این حال، این سناریو با توجه به رقابت شدیدی که در حال حاضر بین غول های فناوری برای توسعه هوش مصنوعی جریان دارد، بعید به نظر می رسد.
پایان خبر ووکس
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "آیا فناوری نسل انسان را منقرض می کند؟" هستید؟ با کلیک بر روی عمومی، ممکن است در این موضوع، مطالب مرتبط دیگری هم وجود داشته باشد. برای کشف آن ها، به دنبال دسته بندی های مرتبط بگردید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "آیا فناوری نسل انسان را منقرض می کند؟"، کلیک کنید.