۳ راه آسان برای افزایش امنیت چت ربات‌های هوش مصنوعی

سریع‌ترین برنامه مصرف‌کننده اینترنتی در حال رشد

۳ راه آسان برای افزایش امنیت چت ربات‌های هوش مصنوعی

ما وارد دنیای جدید و جسورانه چت ربات‌های هوش مصنوعی شده‌ایم. این می‌تواند معانی بسیاری داشته باشد؛ از بازبینی نحوه یادگیری دانش آموزان در مدرسه تا محافظت از خود در برابر اطلاعات نادرست تولید انبوه. این همچنین به معنای توجه به درخواست‌های فزاینده برای تنظیم هوش مصنوعی است تا به ما کمک کند عصری را طی کنیم که در آن رایانه‌ها مانند مردم روان می‌نویسند یا حتی بهتر.تاکنون توافق بیشتری در مورد نیاز به مقررات هوش مصنوعی نسبت به آنچه که این امر مستلزم آن است، وجود دارد.

میرا موراتی، رئیس تیمی که برنامه چت بات ChatGPT را به عنوان سریع‌ترین برنامه مصرف‌کننده اینترنتی در حال رشد در تاریخ ایجاد کرد، گفت: دولت‌ها و تنظیم‌کننده‌ها باید درگیر شوند، اما او روشی را پیشنهاد نکرد.

در یک رویداد شرکتی در ماه مارس، ایلان ماسک حرف‌های مشابهی بیان کرد: ما به نوعی به یک مرجع نظارتی یا چیزی برای نظارت بر توسعه هوش مصنوعی نیاز داریم. در همین حال، طیف وسیع استفاده‌های ChatGPT تلاش‌های اروپا را برای تنظیم برنامه‌های هوش مصنوعی تک‌منظوره افزایش داد.

برای شکستن این بن بست، الزامات شفافیت و شناسایی پیشنهاد می‌شود که به طور خاص برای چت بات‌ها طراحی شده است، برنامه‌های رایانه‌ای که برای مکالمه با کاربران و تولید متن روان در پاسخ به درخواست‌های تایپ شده بر هوش مصنوعی متکی هستند. برنامه‌های چت بات مانند ChatGPT کنج بسیار مهمی از هوش مصنوعی هستند که آماده تغییر شکل بسیاری از فعالیت‌های روزانه هستند؛ از نحوه نوشتن تا نحوه یادگیری ما. مهار چت بات‌ها بدون گرفتار شدن در قوانین هوش مصنوعی که برای سلاح‌های خودران، تشخیص چهره، اتومبیل‌های خودران، الگوریتم‌های تبعیض‌آمیز و تاثیرات اقتصادی اتوماسیون گسترده ایجاد شده است، به‌اندازه کافی مشکل ایجاد می‌کند. ما نیاز به قانون فوری و متمرکز داریم که همگام باشد.

اولین الزام قانونی که پیشنهاد می‌شود این است که همه برنامه‌های روبه‌روی مصرف‌کننده که شامل فناوری ربات‌های گفت و گو هستند، متنی را که هوش مصنوعی برای اولین بار در آن آموزش دیده، عمومی کند. فشار عمومی حتی می‌تواند شرکت‌ها را از آموزش ربات‌های چت در مورد مواردی مانند سایت‌های «اخباری» تئوری توطئه منصرف کند، اما این تنها در صورتی است که مردم بدانند شرکت‌ها با چه متنی آموزش می‌دهند.

ارزیاب‌های انسانی نیز رفتار چت‌بات را به شدت شکل می‌دهند که به یک الزام شفافیت دوم اشاره دارد. یکی از مهندسان ChatGPT اخیرا اصولی را که تیم برای هدایت مرحله دوم آموزش استفاده کرده، توضیح داده است: شما می‌خواهید مفید باشد، می‌خواهید همه چیز صادقانه باشد، باید روشن شود که این یک سیستم هوش مصنوعی است. نباید هویتی را فرض کند که ندارد، نباید ادعا کند که توانایی‌هایی دارد که ندارد؛ اما در حال حاضر هیچ فشار قانونی برای افشای چیزی در مورد روند آموزش وجود ندارد.

از آن جایی که گوگل، متا و دیگران برای جاسازی ربات‌های چت در محصولات خود رقابت می‌کنند تا با استقبال مایکروسافت از ChatGPT همگام شوند، کاربران شایسته دانستن اصول راهنمای شکل‌دهنده آن‌ها هستند. طبق گزارش‌ها، ایلان ماسک در حال استخدام تیمی برای ساخت یک ربات چت است تا با چیزی که به‌عنوان بیداری بیش از حد ChatGPT می‌بیند رقابت کند. بدون شفافیت بیشتر در فرآیند آموزش، تعجب برانگیز است که این به چه معناست و چه ایدئولوژی‌های خارج از محدودیت و بالقوه خطرناک ربات چت او از آن حمایت خواهد کرد؛ بنابراین لازمه دوم این است که دستورالعمل‌های مورد استفاده در مرحله دوم توسعه ربات چت باید به دقت بیان شود و در دسترس عموم قرار گیرد.

این امر باعث می‌شود شرکت‌ها نتوانند چت‌بات‌ها را به شیوه‌ای سرسری آموزش دهند و نشان می‌دهد که یک چت بات چه جنبه‌ای سیاسی ممکن است داشته باشد، چه موضوعاتی را لمس نمی‌کند و توسعه‌دهندگان از چه موارد خطرناکی اجتناب نکرده‌اند.

همان طور که مصرف کنندگان حق دارند مواد تشکیل دهنده غذای خود را بدانند، باید مواد تشکیل دهنده ربات‌های گفت وگوی خود را نیز بدانند. دو الزام شفافیت پیشنهاد شده در اینجا لیستی از مواد تشکیل دهنده ربات چت را به افراد می‌دهد که شایسته آن‌هاست. این به افراد کمک می‌کند تا در مورد رژیم غذایی اطلاعاتی خود انتخاب‌های سالمی داشته باشند.

بسیاری از معلمان و سازمان‌ها در نظر دارند محتوای تولید شده توسط چت‌بات‌ها را ممنوع کنند؛ بعضی‌ها قبلا این کار را انجام داده‌اند، از جمله Wired و یک سایت محبوب برنامه‌نویسی پرسش و پاسخ، اما اگر راهی برای شناسایی متن چت‌بات وجود نداشته باشد، ممنوعیت چندان ارزشی ندارد. OpenAI، شرکت سازنده ChatGPT، یک ابزار آزمایشی برای تشخیص خروجی ChatGPT منتشر کرد، اما به طرز وحشتناکی غیر قابل اعتماد بود. خوشبختانه راه بهتری وجود دارد؛ این که OpenAI ممکن است به زودی واترمارک را اجرا کند؛ این یک روش فنی برای تغییر فرکانس کلمات چت بات است که برای کاربران قابل توجه نیست، اما یک مهر پنهان برای شناسایی متن با نویسنده ربات چت آن ارائه می‌دهد.

به جای این که امیدوار باشیم OpenAI و دیگر تولیدکنندگان چت بات، واترمارکینگ را اجرا کنند، باید آن را اجباری کنیم. ما باید از توسعه دهندگان چت بخواهیم که چت بات‌ها و واترمارکینگ منحصر به فرد خود را در یک آژانس نظارت بر هوش مصنوعی ثبت کنند.