هوش مصنوعی مولد به ویژه مدلهای زبانی بزرگ مانند ChatGPT، مهمترین محصول نهایی هستند که از زمان آغاز شدن پژوهش در حوزه هوش مصنوعی به کار گرفته شدهاند.
به نقل از فوربس، اهمیت هوش مصنوعی مولد، یک موضوع قابل توجه است. شرکت مشاور مدیریت «مککنزی»(McKinsey) تخمین میزند که هوش مصنوعی مولد میتواند سالانه ۷.۹ تریلیون دلار را به اقتصاد جهانی اضافه کند.
به گزارش ایسنا، هوش مصنوعی مولد با وجود پتانسیل فوقالعادهای که دارد، بدون کاستی نیست. در واقع، میتوان استدلال کرد که ورود آن فعلا اوضاع را به هم ریخته است. حال که ۱۰ ماه از انتشار ChatGPT 4 میگذرد، بیایید نگاهی به مشکلات اصلی هوش مصنوعی مولد بیندازیم و چند ایده را در مورد چگونگی غلبه کردن بر آنها بررسی کنیم.
همه ما درباره مشکل توهم ChatGPT شنیدهایم. مدلهای زبانی بزرگ برای ارائه دادن پاسخهای احتمالی طراحی شدهاند که از دادههای آموزشی میگیرند و میتوانند کمی بیش از اندازه نسبت به ارائه دادن پاسخ مشتاق باشند.
این موضوع مشخص شده است که مدلهای زبانی بزرگ به جای گفتن «نمیدانم»، پاسخهایی را درست میکنند و مشکلات بسیاری را از آسیب رساندن به یک برند گرفته تا نقض کردن مقررات به وجود میآورند.
ایجاد حفاظهای اخلاقی و موضوعی برای مدلهای مولد هوش مصنوعی میتواند به حل کردن این مشکل کمک کند. بنابراین، تقویت کردن آموزش یک مدل هوش مصنوعی مولد با پایگاههای دانش مختص حوزههای سازمانی میتواند سودمند باشد.
با وجود این، شرکتها به منظور آماده شدن برای یک آینده قابل پیشبینی باید دقت بهتری را در اعلانهای مهندسی داشته باشند و یک انسان را در جریان نگه دارند تا همه اطلاعات تولید شده با مدل زبانی بزرگ را بررسی کند.
شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمی باشد اما گسترش سریع هوش مصنوعی مولد این نگرانی را بیش از حد تصور تشدید کرده است. اکنون، به جای نگرانی در مورد یک سوگیری کوچک، مدیران شرکتها باید نگران باشند که سوگیری هوش مصنوعی بتواند فرهنگ شرکت آنها را به طور کامل تحت سلطه خود درآورد.
آیا سهولت استفاده کردن از برنامههایی مانند ChatGPT به این معناست که با توجه کردن به یک دیدگاه، تعدد صداهای ما خفه میشود؟ منتقدان ادعا کردهاند که این نرمافزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم میبخشد و ذاتا از نظر نژادی مغرضانه عمل میکند.
برای اطمینان یافتن از اینکه هوش مصنوعی مولد نمیتواند دیدگاههای سمی را در یک سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با این موضوع باشد و تلاش کند تا ارزشهای شرکتی و انسانی خود را به هوش مصنوعی القا کند.
با توجه به اینکه ایجاد محتوای جدید با هوش مصنوعی مولد بسیار آسان شده است، غرق در اطلاعات شدهایم. ایمیلها، کتابهای الکترونیکی، صفحات وب، پستهای منتشر شده در رسانههای اجتماعی و سایر آثار تولید شده، سیل اطلاعات را سرازیر میکنند.
حتی حجم درخواستهای شغلی نیز افزایش یافته که به دلیل توانایی در تولید سریع رزومههای سفارشیسازیشده و نامههای پوششی با هوش مصنوعی است. مدیریت کردن این حجم بزرگ از اطلاعات جدید، کار دشواری است.
چگونه میتوان از کوه اطلاعات ایجادشده در یک سازمان استفاده کرد؟ چگونه میتوان همه این اطلاعات را ذخیره کرد؟ چگونه میتوان با تحلیل دادهها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولید شده باشد، شایستگی اطلاعات و اشخاص چگونه ارزیابی خواهد شد؟
برای جلوگیری کردن از سردرگمی و فرسودگی کارمندان باید فناوریها و روشهای مناسبی را سازماندهی کرد زیرا حجم اطلاعات پس از این بیشتر هم خواهد شد.
هوش مصنوعی مولد، قابلیت انجام دادن حملات سایبری جدید را به شدت افزایش داده است. از این فناوری میتوان برای تحلیل رمز به منظور افزایش دادن آسیبپذیری و نوشتن بدافزار استفاده کرد. همچنین، میتوان از هوش مصنوعی مولد برای تولید کردن فیلمهای جعلی و صداهای شبیهسازیشده به منظور کلاهبرداری و آدمربایی مجازی استفاده کرد.
هوش مصنوعی مولد میتواند ایمیلهای قانعکنندهای را در حمایت کردن از حملات فیشینگ و موارد دیگر بنویسد. علاوه بر این، رمزهایی که با کمک هوش مصنوعی نوشته میشوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان در معرض هک شدن باشند.
بهترین راه مقابله کردن با آتش، خود آتش است. هوش مصنوعی میتواند برای تحلیل کردن رمز در جستجوی آسیبپذیریها و انجام دادن آزمایشهای نفوذ مداوم و بهبود مدلهای دفاعی استفاده شود.
نباید آسیبپذیری شماره یک امنیت سایبری را در یک شرکت فراموش کرد. این آسیبپذیری، انسانها هستند. هوش مصنوعی مولد میتواند گزارشهای فعالیت کاربر را در جستجوی رفتار خطرناک تحلیل کند اما اولین خط دفاعی شرکت باید آموزش دادن کارکنانی باشد که بیشتر از پیش هوشیاری به خرج دهند.
شکایتهای هنرمندان، نویسندگان، آژانسهای عکس و سایرین نشان میدهد که دادهها و سبکهای اختصاصی این افراد بدون اجازه آنها برای آموزش دادن نرمافزار هوش مصنوعی مولد استفاده شده است. شرکتهایی که از نرمافزار مولد هوش مصنوعی استفاده میکنند، نگران هستند که در این معضل گرفتار شوند.
اگر هوش مصنوعی مولد تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیت آن با چه کسی خواهد بود؟ اطلاعاتی که با استفاده از هوش مصنوعی ایجاد میشوند، متعلق به چه کسی هستند؛ اشخاص، شرکتهای نرمافزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟ تاکنون حکم این بوده که آثار تولید شده توسط انسانها با کمک هوش مصنوعی دارای حق چاپ هستند اما هنوز در مورد ثبت اختراعات صحبت نشده است.
توصیه کارشناسان این است که انسانها در جریان ایجاد همه اطلاعات قرار بگیرند و اطمینان حاصل شود که تیم حقوقی شرکت با توجه به سرعت تکامل قوانین، به انجام دادن بررسیهای لازم ادامه دهند.
نظرسنجی شرکت رایانش ابری «سیلزفورس»(Salesforce) که روی ۱۴ هزار نفر کارمند در ۱۴ کشور انجام شده است، نشان میدهد نیمی از کارکنانی که از فناوریهای مولد هوش مصنوعی استفاده میکنند، این کار را بدون تایید سازمانهای محل اشتغال خود انجام میدهند.
بازگشت به روشهای پیشین در این مورد امکانپذیر نخواهد بود. بنابراین، بهتر است سیاستهایی را برای هوش مصنوعی مولد تعیین کرد و برنامههایی را برای آموزش دادن کارکنان به کار گرفت.
همچنین، کارمندان باید با سرپرستهای فناوری اطلاعات شرکت خود در مورد کارهایی صحبت کنند که برای کشف و مدیریت نرمافزارهای هوش مصنوعی مولد روی دستگاههای شرکت انجام میدهند.
هنوز مشکلاتی برای مدیریت کردن هوش مصنوعی مولد وجود دارد اما این فناوری باید مدیریت شود زیرا ما در بحبوحه روند تغییر کردن نحوه انجام دادن تجارت به شیوهای هستیم که پیشتر توسط هیچکس انجام نشده است.
هوش مصنوعی مولد، حوزههای گوناگونی را از جمله مراقبتهای بهداشتی، بانکداری، تدارکات، بیمه، خدمات مشتریان و تجارت الکترونیک تحت تاثیر قرار داده است.
به سختی میتوان صنعتی را یافت که به دلیل استفاده کردن از هوش مصنوعی مولد، ناگهان در معرض اختلالات برقآسا قرار نگیرد. آسیبپذیری و سرعت اختلال هرگز بیشتر از این نبوده است. هوش مصنوعی امسال باید در اولویت هیئت مدیره شرکتها باشد.