

در بهترین حالت واقعا خیره کننده است. اما برخی از معایب نیز وجود دارد.
در یک جمله، کریس موران، رئیس نوآوری تحریریه در گاردین، احساسات اکثر روزنامهنگاران، سردبیران و مدیران اخبار را در مورد فناوری جدیدی که از زمان ورود ChatGPT در ماه نوامبر پدیدار شده است، به خوبی خلاصه کرد.
او به پادکست Future of Media Explained از Press Gazette گفت که این نقص ها فراوان هستند و “خطرات خاصی” برای روزنامه نگاری ایجاد می کنند. با این حال، آزمایشهای او تا کنون با هوش مصنوعی مولد، او را نسبت به ارزشی که روزنامهنگاری برای جهان به ارمغان میآورد کاملاً خوشبین است.
او توضیح داد: «همه در این مورد بسیار نگران هستند، درست است و سؤالات دشواری وجود دارد. اما چیزی در مورد نگاه کردن به این فناوری وجود دارد که به شما یادآوری میکند که چرا کاری که ما انجام میدهیم فوقالعاده مهم است و به طور مصنوعی کاملاً قابل تکرار نیست.
توهمات: روزنامه نگاران “نمی توانند این واقعیت را نادیده بگیرند که قرار است چیزهایی را بسازند”
یکی از این ایرادات تولید “توهمات” توسط ChatGPT و سایر تولیدکنندگان متن هوش مصنوعی است – به این معنی که آنها اطلاعاتی را می سازند یا اگر از آنها خواسته شود چیزی را خلاصه کنند، “حقایق” را معرفی می کنند که در منبع اصلی وجود نداشت.
ناشر اسکاندیناویایی Schibsted در حال آزمایش با خلاصه های نوشته شده با هوش مصنوعی بر اساس مقالات خود عناوین است، اما 10 درصد از مواقع خلاصه ها شامل مواردی می شود که در منبع منبع نیستند، خواه دقیق باشند یا نه.
موران به روزنامه پرس گفت: «…حتی اگر فکر میکنید فناوری واقعاً هیجانانگیز است، که من انجام میدهم، شما به عنوان روزنامهنگار واقعاً نمیتوانید این واقعیت را نادیده بگیرید که چیزهایی را اختراع میکند.»
محتوای شرکای ما
او در مورد چگونگی تماس گاردین با محققان و دانشجویان نوشت که برای یافتن مقاله ای که توسط ChatGPT استناد شده بود، کمک خواستند. ربات چت به مقالاتی با سرفصل هایی که توسط روزنامه نگاران نامی نوشته شده بود پیوند می خورد، اما پس از جستجو در آرشیوها و حتی فهرست داستان های حذف شده، گاردین دریافت که این داستان ها هرگز وجود نداشته اند.
موران خاطرنشان کرد که در آزمایش بتای Google از Bard، چت ربات تولید شده توسط هوش مصنوعی که انتظار میرود در جستجو ادغام شود، هشداری در مورد نتایج آن ارائه شده است: “بارد ممکن است اطلاعات نادرست یا توهینآمیز را نشان دهد که دیدگاههای گوگل را نشان نمیدهد.”
او گفت: «من فکر میکنم اگر یک سازمان خبری با کیفیت هستید، باید شما را وادار کند که دست از کار بکشید و سؤالات بسیار بزرگی در مورد اینکه آیا واقعاً میتوانید آن را به شکل کنونی آن منتشر کنید، بپرسید.
این مشکل برای بسیاری از ناشران خبری غیر قابل حل است. بحث در مورد اینکه آیا این نوع توهمات با توسعه فناوری از بین خواهند رفت، یا اینکه آیا آنها بخشی اجتناب ناپذیر از هوش مصنوعی مولد خواهند بود، ادامه دارد، به این معنی که برای رسیدن به درجه بالایی از دقت برای تبدیل شدن به یک منبع واقعاً قابل اعتماد تلاش خواهد کرد.
به ریسک و مدل های کسب و کار از هوش مصنوعی جستجو اعتماد کنید
پلتفرم هوش مصنوعی Generative همچنین تهدیدی برای ناشران اخبار از طریق ظاهر شدن آنها در نتایج جستجو است. موران توضیح داد: «جایی که شروع میشود واقعاً نگرانکننده میشود، و جایی که میبینید این فضای مشکل در یک منطقه حتی بزرگتر باز میشود، زمانی است که مایکروسافت و گوگل و دیگران این ابزارها را در مکانهایی مانند جستجو ایجاد میکنند که میتوانید انتظار یک نتیجه قطعی و قطعی داشته باشید. پاسخ دقیق تا حدی ممکن است مزخرف ایجاد کند.
و شاید او قطعاتی را به گاردین یا تایمز یا نیویورک تایمز نسبت داده است که هرگز وجود نداشته اند. و من فکر می کنم که این پیامدهای کاملاً آشکاری برای اکوسیستم اطلاعاتی دارد.
او افزود که موتورهای جستجو و چت ربات ها همچنین می توانند اعتماد به برندهای خبری را با استناد به آنها در برابر توهمات “به طور بالقوه” تضعیف کنند.
موران همچنین به پیامدهای “بسیار” مدل های کسب و کار ناشران اخبار از نتایج جستجوی تولید شده توسط هوش مصنوعی اشاره کرد که به مردم در پاسخ به سؤالات آنها اطلاعات زیادی می دهد که دیگر نیازی به کلیک روی مقالات اصلی ندارند.
او گفت: «در واقع شما هوش مصنوعی Google را دارید که بین محتوای شما و کاربر و اطراف وبسایت شما واسطه میشود… جالب است که اگر این میانجیگری با یک هشدار سالم همراه باشد که میگوید هیچ یک از اینها ممکن است درست نباشد، به نظر من سؤالات جالبی میپرسید. در مورد اینکه آیا Gen AI یک فناوری خوب برای استفاده در حال حاضر در یک محیط جستجو به ویژه است یا خیر.

موران خاطرنشان کرد که گاردین چندین سال است که یک API راه اندازی کرده است که از طریق آن مردم می توانند برای دریافت جریانی از محتوای آن پول پرداخت کنند، اما هیچ شرکت هوش مصنوعی برای درخواست استفاده از آن حاضر نشده است. FT در ماه ژوئن گزارش داد که ناشران از جمله News Corp، Axel Springer، New York Times و The Guardian در حال مذاکره با شرکت های فناوری بر سر حق چاپ و پرداخت برای استفاده از محتوای آنها در چت بات ها هستند.
موران گفت که گاردین «به این فکر میکند که محتوای ما در این محیط چقدر ارزش دارد» و اضافه کرد که «یک چیز مطمئن است، رسانههای خبری در بسیاری از این مجموعههای خزنده عمومی به طور قابل توجهی برتری میکنند».
اصول هوش مصنوعی گاردین
موضوع کپی رایت یکی از سه «اصول» گاردین در مورد هوش مصنوعی مولد است که در ژوئن منتشر شد، که میگوید: «یک اصل راهنما برای ابزارها و مدلهایی که در نظر داریم از آنها استفاده کنیم، میزانی است که آنها سؤالات کلیدی مانند مجوزها را در نظر گرفتهاند. شفافیت و پاداش عادلانه.»
این اصول همچنین میگویند که قبل از استفاده از هوش مصنوعی مولد به هر نحوی، یک روزنامهنگار گاردین باید دلیل سودمندی آن برای خوانندگان را توجیه کند، آن را توسط یک ویرایشگر امضا کند و اطمینان حاصل کند که به طور شفاف به کاربر سیگنال داده میشود. هر گونه استفاده نیز تنها در صورتی باید انجام شود که کیفیت کار را بهبود بخشد و از ماموریت گاردین پشتیبانی کند.
با وجود معرفی این اصول، هوش مصنوعی مولد هنوز به هیچ وجه در گاردین به فرآیند تولید اضافه نشده است.
موران توضیح داد: “ما تعهد داریم که نمی خواهیم مردم این چیزها را فقط به خاطر جدید بودن آنها بپذیرند… یکی از چیزهای جالب در مورد کارایی و هوش مصنوعی مولد در یک سازمان خبری در حال حاضر این است که اگر نمی توانید آن را بدون حضور انسان در حلقه خودکار کنید، سپس اگر مجبور باشید دوباره آن را بررسی کنید، فرصتهای اثربخشی کاهش مییابد.
و مهمتر از همه، کاری که نمیخواهیم انجام دهیم این است که یکی از چیزهایی را حذف کنیم که ما را از پتانسیل موج عظیمی از محتوای مصنوعی محافظت میکند که قرار است ما را غرق کند، یعنی اینکه ما روزنامهنگاران آموزش دیده هستیم و سردبیران و ما انسان هستیم. بنابراین ما به دنبال موارد استفاده هستیم که به طور خاص در مورد اینکه چه کاری می تواند انجام دهد که ما نمی توانیم انجام دهیم؟ چه کاری می تواند انجام دهد که کارهای پیش پا افتاده تر را از متخصصان حذف کند تا آنها برای انجام کارهای خود آزاد شوند؟ و غیره.”
موران که شغلش اغلب او را به عنوان پل ارتباطی بین اتاق خبر و محصول و تیم های مهندسی می بیند، گفت که اگرچه ابزارهای هوش مصنوعی مولد هنوز پیاده سازی نشده اند، اما توسط روزنامه نگاران گاردین آزمایش شده اند تا کشف کنند که واقعاً چه چیزی ممکن است وجود داشته باشد. مفید
موران گفت که این ابزارها میتوانند «کاملاً موفق» تیتر بنویسند، بهویژه اگر در قالب خاصی باشند: برای مثال، تیتر مصاحبه میگوید که شخص کیست، معمولاً با نقل قول و زمینههای وسیعتر.
با این حال، او افزود: «دوباره، برای روشن شدن، ما هرگز نتوانستیم این را خودکار کنیم. حتی با اعلانهایی که با دقت طراحی شدهاند، باز هم گاهی اوقات نقل قولهایی را ارائه میکند، حتی زمانی که از او بخواهید کلمه به کلمه از یک متن نقل قول کند. بنابراین این سوال پیش می آید که آیا این مفید است؟
موران همچنین گفت که وبلاگ نویسان زنده گاردین در حال بازی کردن در پشت صحنه با بازنگری های تولید شده توسط هوش مصنوعی هستند تا ببینند آیا این می تواند به آنها کمک کند که مجبور نباشند به نوشته های قبلی خود بازگردند تا هر چند ساعت یکبار چه اتفاقی در حال رخ دادن است.
او همچنین مثالی از رباتی ارائه کرد که به عنوان مثال میتوانست به نویسندهای در هنگام ارسال نسخهی خود به یک ربات فنی مانند محیط یا علم بگوید که باید زبان خود را سادهتر کند یا چیزهای خاصی را بهتر برای مخاطب عام توضیح دهد.
موران در پاسخ به این سوال که چه زمانی ممکن است این ابزارها در اتاق خبر گاردین جایی داشته باشند، گفت: «من فکر میکنم که ما انتخاب کنیم یکی از این مدلها را در یک محیط تولید، به خصوص در پشت مکالمه IP، به کار بگیریم، این یک سؤال بزرگ است. و من فکر می کنم برای انجام این کار، ما باید موارد استفاده ای داشته باشیم که نه تنها خوب هستند، بلکه به طور کلی دگرگون کننده هستند.
بنابراین در حال حاضر، نه، ما اصلاً تحت هیچ فشاری برای اجرای این موارد نیستیم. من واقعا به این واقعیت افتخار می کنم که ما نیستیم. من فکر می کنم این موضع درستی است که بگوییم این چیزها چگونه کار می کنند؟ چه فایده ای برای خواننده دارد؟ آیا می توانید این را جدا کنید؟ و آیا هر چیز دیگری ارزشش را دارد؟»
نکته دیگری که باید قبل از اجرای ابزارهای هوش مصنوعی مولد توسط کارکنان در نظر گرفته شود، آموزش آنها در مورد خطرات احتمالی آن در رفتار عادی کاریشان است، به عنوان مثال هنگام استفاده از دکمه هایی مانند “این را مختصرتر کن”.
موران به عنوان مثال دیگری گفت: «بیشتر خبرنگاران نباید برای تحقیق به این چیزها دست بزنند. “اگر به Google مراجعه میکنید و نمیتوانید چیزی را که به دنبال آن هستید پیدا کنید، رفتن به ChatGPT زیرا نمیتوانید آن را پیدا کنید، تقریباً مطمئناً حرکت بسیار بدی است.”
او فاش کرد که گاردین قبلاً تظاهراتی را در مقابل 270 نفر در اتاق خبر بریتانیا و در سرتاسر اتاقهای خبری ایالات متحده و استرالیا برگزار کرده است و آنها در نهایت نوعی دستورالعمل رسانههای اجتماعی برای کارکنان ایجاد خواهند کرد که این منطقه را پوشش میدهد.
موران گفت: «آموزش از نظر رفتار کاری عادی در اینجا تقریباً مهمتر از چیزی است که میخواهید بسازید.
موران گفت، ناشران همچنین در قبال روزنامه نگاران و دیگران، مانند طراحان و عکاسان، که مشاغل آنها می تواند تحت تاثیر ورود هوش مصنوعی مولد قرار گیرد، مسئولیت دارند.
وی در ادامه هشدار داد: «در حال حاضر به نظر من افرادی وجود خواهند داشت که به سمت کارآمدی حرکت میکنند، و من شخصاً میگویم که برای انجام این کار خیلی زود است، فکر نمیکنم بتوانید به اندازه کافی روی آن سرمایهگذاری کنید.» هنوز تصمیمات مهمی گرفته اند
اما او افزود: «فکر میکنم واقعیت این است که در حال حاضر نمیدانیم این چیزها چگونه روی ما تأثیر میگذارد. ما این کار را نمی کنیم. و فکر میکنم یک شخص بسیار شجاعتر از من لازم است که بگوید همه چیز درست میشود یا همه چیز به یک فاجعه تبدیل میشود.
“یک چیزی که ما می دانیم این است که اگر فناوری بهبود یابد، شغل در مقطعی تغییر خواهد کرد.”
برای شنیدن مصاحبه کامل با کریس موران، به پادکست Future of Media Explained Press Gazette گوش دهید.
پست الکترونیک [email protected] برای اشاره به اشکالات، ارائه نکات داستانی، یا ارسال نامه ای برای انتشار در وبلاگ صفحه نامه ما.