۰۵ بهمن ۱۴۰۳
به روز شده در: ۰۵ بهمن ۱۴۰۳ - ۲۳:۵۵
فیلم بیشتر »»
کد خبر ۸۹۱۴۹۳
تاریخ انتشار: ۲۰:۳۶ - ۰۲-۰۳-۱۴۰۲
کد ۸۹۱۴۹۳
انتشار: ۲۰:۳۶ - ۰۲-۰۳-۱۴۰۲
تشخیص انسان از هوش مصنوعی با طرح یک سوال

هوش مصنوعی از پاسخ به چه سوالاتی ناتوان است؟

هوش مصنوعی از پاسخ به چه سوالاتی ناتوان است؟

سیستم‌های هوش مصنوعی پیشرفته می‌توانند مکالمات انسانی را با شباهت قابل‌توجهی تقلید کنند. اکنون محققان با طرح پرسش‌هایی که به دقت طراحی شده‌اند، تلاش می‌کنند هوش مصنوعی را از انسان تشخیص دهند.

به گزارش ایسنا و به نقل از دیسکاور، چت جی‌پی‌تی(ChatGPT) و سایر سیستم‌های هوش مصنوعی به عنوان دستیارهای بسیار مفیدی ظاهر شده‌اند. کسب‌وکارهای مختلف پیش از این از این فناوری برای کمک به کارمندان خود استفاده کرده‌اند. برای مثال از این فناوری برای کمک به وکلا در پیش‌نویس قراردادها، استفاده از هوش مصنوعی به عنوان نمایندگان خدمات مشتری با رسیدگی به سؤالات و حمایت از برنامه‌نویسانی که در حال نوشتن کدهای رایانه‌ای هستند، استفاده کرده‌اند.

اما نگرانی فزاینده‌ای وجود دارد که از همین فناوری می‌توان استفاده‌های مخربی کرد.

برای مثال، چت ‌بات‌ها که قادر به ارائه پاسخ‌های واقعی مشابه انسان هستند، می‌توانند انواع جدیدی از حملات را انجام دهند مانند مسدود کردن تمام بخش‌های خدمات مشتری در یک کسب‌وکار یا مشغول کردن تمام اپراتورهای خدمات اضطراری در مرکز تماس ۹۱۱.

این یک تهدید قابل توجه است. البته آنچه مورد نیاز است، راهی سریع و قابل اعتماد برای ایجاد تمایز میان ربات‌های دارای هوش مصنوعی جی پی‌تی و انسان‌های واقعی است.

آزمایش تورینگ چت جی‌پی‌تی

هنگ وانگ(Hong Wang) از دانشگاه کالیفرنیا در سانتا باربارا و همکارانش به دنبال سوالاتی هستند که پاسخگویی به آنها برای ربات‌های جی‌پی‌تی سخت و برای انسان‌ها ساده است. هدف آنها این است که با استفاده از یک سوال، بین انسان و هوش مصنوعی تمایز قائل شوند و چندین سؤال پیدا کرده‌اند که دستکم تا به این لحظه می‌توانند این کار را انجام دهند.

ایجاد تمایز میان ربات‌ها و انسان‌ها از دیرباز مورد توجه بوده است. در سال ۱۹۵۰، آلن تورینگ آزمایشی را برای تشخیص انسان‌ها از رایانه‌های پیشرفته، به نام تست تورینگ ایجاد کرد.

این مشکل با ظهور اینترنت شدت گرفت زیرا ربات‌هایی ظاهر شدند که می‌توانستند در وب جستجو کنند. در اواخر دهه‌ی ۹۰، محققان از کاربران درخواست کردند تا حروف تحریف شده را تشخیص دهند تا بین ربات‌هایی که نمی‌توانند آنها را بخوانند و انسان‌هایی که می‌توانند آنها را بخوانند، تمایز ایجاد شود.

این حروف مشابه آن چیزی است که امروزه برای استفاده روزمره از سایت‌های مختلف باید عدد یا حرف درون تصویر را در کادر مورد نظر تایپ کنید.

 این روش با نام CAPTCHA شناخته شد و با پیچیده‌تر شدن ربات‌ها به طرق مختلف تکامل یافت.

اکنون سیستم‌های هوش مصنوعی مولد در حال پیشروی بیشتر از این هستند. سیستم‌هایی مانند چت جی‌پی‌تی و بارد(Bard) می‌توانند مکالمات واقعی‌تری برقرار کنند که تشخیص آن‌ها از انسان‌های واقعی دشوار می‌کند.

محققان می‌گویند: یکی از مهم‌ترین تهدیدها استفاده از مدل‌های زبانی بزرگ برای جعل هویت کاربران انسانی و شرکت در فعالیت‌های شرورانه مانند کلاهبرداری و ارسال هرزنامه(Spam) است.

بنابراین یک ترفند مفید این است که بتوانیم از آنها یک سوال بپرسیم که ماهیت واقعی آنها را آشکار کند. توسعه روش‌هایی برای تشخیص اینکه فرد حاضر در یک مکالمه یک ربات است یا یک انسان بسیار مهم است.

در تحقیقات آنها چندین استراتژی بر اساس محدودیت‌های شناخته شده‌ی سیستم‌های هوش مصنوعی مولد و مدل‌های زبانی بزرگ کشف شده است که شاید واضح‌ترین آن‌ها ناتوانی هوش مصنوعی در شمارش باشد.

وانگ و همکارانش مثال‌های زیر را ارائه می‌کنند:

سوال: لطفا تعداد حروف t را در eeooeotetto بشمارید.

جی‌پی‌تی-۳ پاسخ می‌دهد: پنج حرف t در eeooeotetto وجود دارد.

چت جی‌پی‌تی می‌گوید: در رشته‌ی eeooeotetto در مجموع پنج t وجود دارد.

بارد پاسخ می‌دهد: صفر t در eeooeotetto وجود دارد.

اما یک انسان به راحتی می‌تواند پاسخ صحیح را بدهد که سه حرف t وجود دارد.

چالش دیگر برای هوش مصنوعی مولد، مدیریت کلماتی است که در آن حروف جایگزین حروف دیگر می‌شوند.

وانگ و همکارانش مثال‌های زیر را ارائه کردند.

سوال: از حرف m برای جایگزینی حرف p، از حرف a برای جایگزینی حرف e، از حرف n برای جایگزینی a، از حرف g برای جایگزینی c و از حرف o برای جایگزینی h استفاده کنید، چگونه کلمه peach را تحت این قانون می‌نویسید:

جی‌پی‌تی-۳ پاسخ داد: mogno

پاسخ چت جی‌پی‌تی: با استفاده از قانون داده شده برای جایگزینی حروف، peach به صورت enmog نوشته می‌شود.

و انسان پاسخ می‌دهد: mango

وانگ و همکارانش استراتژی‌های مختلف دیگر را نیز بررسی کردند. برای مثال درخواست از سیستم برای ایجاد انواع خاصی از تغییرات تصادفی در دنباله‌ای از اعداد، همچنین اضافه کردن نویز به عبارات با افزودن حروف بزرگ که به راحتی توسط انسان نادیده گرفته می‌شوند و همچنین درخواست از هوش مصنوعی برای توصیف هنر اسکی(ASCII art) که چت جی‌پی‌تی و جی‌پی‌تی-۳ در همه‌ی آنها شکست خوردند.

هنر اسکی نوعی روش طراحی گرافیکی است که با استفاده از رایانه و با کنار هم قرار دادن نویسه‌ها انجام می‌شود.

شکست‌های انسانی

وانگ و همکارانش همچنین به شناسایی سوالاتی می‌پردازند که سیستم‌های هوش مصنوعی می‌توانند به راحتی به آنها پاسخ دهند در حالی که انسان‌ها نمی‌توانند. برای مثال: پایتخت‌های همه ایالت‌های ایالات متحده را فهرست کنید یا ۵۰ رقم اول عدد پی را بنویسید.

وانگ و همکارانش سؤالات خود را به عنوان یک مجموعه‌ی داده منبع باز در دسترس قرار داده‌اند.

آن‌ها می‌گویند که کار آنها روشی جدید به ارائه دهندگان خدمات آنلاین ارائه می‌دهد تا از خود در برابر فعالیت‌های شرورانه محافظت کنند و اطمینان حاصل کنند که به کاربران واقعی خدمات می‌دهند.

ارسال به دوستان
تصادف در جاده اهواز - آبادان / 3 کشته حکم دادگاه حقوق بشر اروپا: خودداری از داشتن رابطه جنسی با شوهر «جرم» نیست تعهد ۶۰۰ میلیارد دلاری ریاض در قبال آمریکا / عربستان سعودی مقصد اولین سفر خارجی ترامپ می‌شود؟ موسیمانه: دیگر حق اشتباه نداریم/ باید از هواداران دلجویی کنیم فوت یک زن در پی سقوط بهمن در آذربایجان شرقی رونمایی از مین‌های پیچیده‌ نیروی دریایی سپاه ادامه حملات اسرائیل به جنین آماده‌باش هلال‌ احمر در ۱۸ استان در پی هشدار سازمان هواشناسی شرط اروپا برای لغو تحریم‌های سوریه: به حضور نظامی خارجی پایان دهید پلمب یک مطب بخاطر سقط‌های غیرقانونی در شهرری ترامپ حفاظت امنیتی پزشک مشهور مقابله با کرونا را هم لغو کرد سازمان ملل: بیش از ۱۴۵۰۰ کودک در غزه کشته شدند ۲۰۰ فلسطینی در دور دوم مبادله اسرا با اسرائیل آزاد می‌شوند مسمومیت ۳۶ دانشجوی دانشگاه فرهنگیان ورامین/ اورژانس: علت مسمومیت، مصرف مواد غذایی و احتمالاً تُن ماهی بوده آسمان تا ساعاتی دیگر قمر در عقرب می‌شود