Is ChatGPT destroying human jobs?

آیا ChatGPT مشاغل انسانی را نابود می کند؟

اگر در طول هفته گذشته زمانی را صرف مرور فیدهای رسانه های اجتماعی کرده اید (که این کار را نکرده است)، احتمالاً در مورد ChatGPT شنیده اید. چت ربات مسحورکننده و حیرت‌انگیز که توسط OpenAI توسعه داده شد و هفته گذشته منتشر شد، یک هوش مصنوعی کوچک است که می‌تواند در پاسخ به درخواست‌های کاربر، متن بسیار قانع‌کننده و با صدایی انسانی را منتشر کند.

برای مثال، ممکن است از آن بخواهید که خلاصه داستانی برای Knives Out بنویسد، به جز اینکه Benoit Blanc در واقع Foghorn Leghorn است (فقط من؟)، و چیزی نسبتاً منسجم را نشان می دهد. همچنین می تواند به رفع کدهای شکسته و نوشتن مقاله کمک کند تا برخی از دانشگاهیان را متقاعد کند که بگویند در امتحانات کالج نمره A می گیرند.

پاسخ‌های آن چنان مردم را متحیر کرده است که برخی حتی اعلام کرده‌اند «گوگل مرده است». سپس کسانی هستند که فکر می کنند این فراتر از گوگل است: مشاغل انسانی نیز با مشکل مواجه هستند.

به عنوان مثال، گاردین اعلام کرد که “استادان، برنامه نویسان و روزنامه نگاران همه ممکن است ظرف چند سال بیکار شوند.” برداشت دیگری از نشریه شاخص انجمن رایانه استرالیایی عصر اطلاعات، همین را پیشنهاد می کند. تلگراف اعلام کرد این ربات می تواند “کار شما را بهتر از شما انجام دهد.”

کسب اطلاعات بیشتر: استفاده از گوگل مپ بدون اینترنت

ChatGPT هنوز شما را از کار بیکار نخواهد کرد.

یک مثال عالی از چرایی استوری منتشر شده در عصر اطلاعات ارائه شده است. این نشریه از ChatGPT برای نوشتن یک داستان کامل در مورد ChatGPT استفاده کرد و محصول نهایی را با یک مقدمه کوتاه ارسال کرد. این قطعه تقریباً به همان سادگی است که می توانید بخواهید – ChatGPT یک بازگویی اساسی از حقایق وجود آن ارائه می دهد – اما در “نوشتن” قطعه، ChatGPT همچنین نقل قول های جعلی تولید کرد و آنها را به یک محقق OpenAI به نام جان اسمیت نسبت داد. که ظاهرا واقعی است).

این امر بر شکست کلیدی یک مدل زبان بزرگ مانند ChatGPT تأکید می کند: نمی داند چگونه واقعیت را از داستان جدا کند. نمی توان آن را برای انجام این کار آموزش داد. این یک سازمان دهنده کلمات است، یک هوش مصنوعی برنامه ریزی شده به گونه ای که می تواند جملات منسجمی بنویسد.

این یک تمایز مهم است و اساساً از ChatGPT (یا مدل زبان بزرگ زیربنایی که بر اساس آن ساخته شده، GPT 3.5 OpenAI) از نوشتن اخبار یا صحبت در مورد امور جاری جلوگیری می کند. (همچنین بر روی داده های به روز آموزش نمی بیند، اما این چیز دیگری است.) قطعا نمی تواند کار یک روزنامه نگار را انجام دهد. گفتن این حرف، خود عمل روزنامه نگاری را کاهش می دهد.

ChatGPT برای صحبت با اوکراینی‌ها در مورد تهاجم روسیه به دنیا نمی‌رود. وقتی کیلیان امباپه برنده جام جهانی می شود، نمی تواند احساسات را در چهره کیلیان امباپه بخواند. مطمئناً پریدن با کشتی به قطب جنوب نیست تا درباره تجربیات آن بنویسد. نمی توان با نقل قولی کاملاً غیرمعمول تعجب کرد که ناخواسته رازی را در مورد تجارت یک مدیر عامل فاش می کند. جهنم، هیچ امیدی به پوشش ماسک در مورد تصاحب توییتر نخواهد داشت — این داور حقیقت نیست و نمی تواند اتاق را بخواند.

جالب است که ببینید چقدر پاسخ مثبت به ChatGPT بوده است. این کاملاً شایسته ستایش است و پیشرفت های مستندی که OpenAI نسبت به آخرین محصول خود، GPT-3 ایجاد کرده است، در نوع خود جالب هستند. اما دلیل اصلی اینکه واقعاً مورد توجه قرار گرفته است این است که به راحتی در دسترس است.

GPT-3 چارچوب آنلاین نرم و کاربردی نداشت و اگرچه نشریاتی مانند گاردین از آن برای تولید مقاله استفاده می کردند، اما فقط یک سر و صدای کوتاه در فضای آنلاین ایجاد کرد. توسعه یک ربات چت که می‌توانید با آن تعامل داشته باشید و اسکرین‌شات‌ها را از آن به اشتراک بگذارید، نحوه استفاده و صحبت در مورد محصول را کاملاً تغییر می‌دهد. این نیز باعث شده است که ربات کمی بیش از حد تبلیغات کند.

به طرز عجیبی، این دومین هوش مصنوعی است که در هفته‌های اخیر سر و صدا به پا کرده است.

در ۱۵ نوامبر، Meta AI هوش مصنوعی خود را با نام Galactica منتشر کرد. مانند ChatGPT، این یک مدل زبان بزرگ است و به عنوان راهی برای “سازماندهی علم” معرفی شد. اساساً می‌تواند پاسخ‌هایی برای سؤالاتی مانند “گرانش کوانتومی چیست؟” یا معادلات ریاضی را توضیح دهید. دقیقاً مانند ChatGPT، شما یک سؤال را مطرح می کنید و پاسخی را ارائه می دهد.

Galactica بر روی بیش از ۴۸ میلیون مقاله و چکیده علمی آموزش داده شد و پاسخ های قانع کننده ای ارائه کرد. تیم توسعه این ربات را به عنوان راهی برای سازماندهی دانش معرفی کردند و خاطرنشان کردند که می تواند مقالات و مقالات علمی ویکی پدیا را تولید کند.

مشکل این بود که بیشتر زباله‌ها را بیرون می‌کشیدند — متن مزخرفی که رسمی به نظر می‌رسید و حتی حاوی ارجاعاتی به ادبیات علمی بود، هر چند ساخته شده بود. حجم انبوهی از اطلاعات نادرست که در پاسخ به درخواست‌های ساده تولید می‌کرد، و چقدر این اطلاعات نادرست موذیانه بود، دانشگاهیان و محققان هوش مصنوعی را تحت تأثیر قرار داد و افکارشان را در توییتر به جریان انداختند. واکنش شدید باعث شد این پروژه پس از دو روز توسط تیم هوش مصنوعی متا تعطیل شود.

ChatGPT به نظر نمی رسد که در همان جهت حرکت کند. این شبیه یک نسخه “هوشمندتر” از Galactica با فیلتر بسیار قوی تر است. به عنوان مثال، جایی که Galactica راه‌هایی برای ساخت بمب ارائه می‌کرد، ChatGPT درخواست‌هایی را که تبعیض‌آمیز، توهین‌آمیز یا نامناسب هستند حذف می‌کند. ChatGPT نیز برای مکالمه بودن و اعتراف به اشتباهات خود آموزش دیده است.

و با این حال، ChatGPT هنوز به همان اندازه که همه مدل های زبان بزرگ محدود هستند محدود است. هدف آن ساخت جملات یا آهنگ ها یا پاراگراف ها یا مقاله ها با مطالعه میلیاردها (تریلیون ها؟) کلمه است که در سراسر وب وجود دارد. سپس آن کلمات را کنار هم قرار می دهد و بهترین راه برای پیکربندی آنها را پیش بینی می کند.

در انجام این کار، مطمئناً چند پاسخ مقاله قانع کننده می نویسد. آشغال هم می نویسد، درست مثل گالاکتیکا. چگونه می توانید از هوش مصنوعی که ممکن است پاسخ درستی ارائه نکند، یاد بگیرید؟ چه نوع مشاغلی ممکن است جایگزین شود؟ آیا مخاطب می داند که چه کسی یا چه چیزی یک قطعه را نوشته است؟ و چگونه می توانید متوجه شوید که هوش مصنوعی صادق نیست، به خصوص اگر قانع کننده به نظر برسد؟ تیم OpenAI کاستی‌های ربات را تأیید می‌کند، اما اینها سؤالات حل‌نشده‌ای هستند که امروزه توانایی‌های هوش مصنوعی مانند این را محدود می‌کنند.

بنابراین، اگرچه ربات چت کوچک سرگرم کننده است، همانطور که در این تبادل شگفت انگیز در مورد مردی که درباره کدو تنبل لاف می زند، مشهود است، سخت است که بفهمیم چگونه این هوش مصنوعی استادان، برنامه نویسان یا روزنامه نگاران را بیکار می کند. درعوض، در کوتاه مدت، ChatGPT و مدل زیربنایی آن احتمالاً مکمل کاری خواهد بود که روزنامه نگاران، اساتید و برنامه نویسان انجام می دهند. این یک ابزار است، نه یک جایگزین. درست مانند روزنامه‌نگاران که از هوش مصنوعی برای رونویسی مصاحبه‌های طولانی استفاده می‌کنند، ممکن است از هوش مصنوعی به سبک ChatGPT برای ایجاد یک ایده سرفصل استفاده کنند.

زیرا این دقیقاً همان کاری است که ما با این قطعه انجام دادیم. عنوانی که در این مقاله می بینید تا حدی توسط ChatGPT پیشنهاد شده است. اما پیشنهادات آن کامل نبودند. این پیشنهاد استفاده از عباراتی مانند «اشتغال انسانی» و «کارگران انسانی» را ارائه کرد. آن ها بیش از حد رسمی، بیش از حد… روباتیک بودند. بی احساس. بنابراین، ما پیشنهادات آن را تغییر دادیم تا زمانی که به آنچه در بالا می‌بینید رسیدیم.

شاید! در حال حاضر، احساس می کنم شغل من به عنوان یک روزنامه نگار بسیار امن است.

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *