منو سایت

  • خانه
  • وبلاگ
  • چرا گاردین عجله ای برای برقراری یک تماس بزرگ با هوش مصنوعی مولد ندارد

چرا گاردین عجله ای برای برقراری یک تماس بزرگ با هوش مصنوعی مولد ندارد

 تاریخ انتشار :
/
  وبلاگ
چرا گاردین عجله ای برای برقراری یک تماس بزرگ با هوش مصنوعی مولد ندارد

در بهترین حالت واقعا خیره کننده است. اما برخی از معایب نیز وجود دارد.

در یک جمله، کریس موران، رئیس نوآوری تحریریه در گاردین، احساسات اکثر روزنامه‌نگاران، سردبیران و مدیران اخبار را در مورد فناوری جدیدی که از زمان ورود ChatGPT در ماه نوامبر پدیدار شده است، به خوبی خلاصه کرد.

او به پادکست Future of Media Explained از Press Gazette گفت که این نقص ها فراوان هستند و “خطرات خاصی” برای روزنامه نگاری ایجاد می کنند. با این حال، آزمایش‌های او تا کنون با هوش مصنوعی مولد، او را نسبت به ارزشی که روزنامه‌نگاری برای جهان به ارمغان می‌آورد کاملاً خوش‌بین است.

او توضیح داد: «همه در این مورد بسیار نگران هستند، درست است و سؤالات دشواری وجود دارد. اما چیزی در مورد نگاه کردن به این فناوری وجود دارد که به شما یادآوری می‌کند که چرا کاری که ما انجام می‌دهیم فوق‌العاده مهم است و به طور مصنوعی کاملاً قابل تکرار نیست.

توهمات: روزنامه نگاران “نمی توانند این واقعیت را نادیده بگیرند که قرار است چیزهایی را بسازند”

یکی از این ایرادات تولید “توهمات” توسط ChatGPT و سایر تولیدکنندگان متن هوش مصنوعی است – به این معنی که آنها اطلاعاتی را می سازند یا اگر از آنها خواسته شود چیزی را خلاصه کنند، “حقایق” را معرفی می کنند که در منبع اصلی وجود نداشت.

ناشر اسکاندیناویایی Schibsted در حال آزمایش با خلاصه های نوشته شده با هوش مصنوعی بر اساس مقالات خود عناوین است، اما 10 درصد از مواقع خلاصه ها شامل مواردی می شود که در منبع منبع نیستند، خواه دقیق باشند یا نه.

موران به روزنامه پرس گفت: «…حتی اگر فکر می‌کنید فناوری واقعاً هیجان‌انگیز است، که من انجام می‌دهم، شما به عنوان روزنامه‌نگار واقعاً نمی‌توانید این واقعیت را نادیده بگیرید که چیزهایی را اختراع می‌کند.»

محتوای شرکای ما

او در مورد چگونگی تماس گاردین با محققان و دانشجویان نوشت که برای یافتن مقاله ای که توسط ChatGPT استناد شده بود، کمک خواستند. ربات چت به مقالاتی با سرفصل هایی که توسط روزنامه نگاران نامی نوشته شده بود پیوند می خورد، اما پس از جستجو در آرشیوها و حتی فهرست داستان های حذف شده، گاردین دریافت که این داستان ها هرگز وجود نداشته اند.

موران خاطرنشان کرد که در آزمایش بتای Google از Bard، چت ربات تولید شده توسط هوش مصنوعی که انتظار می‌رود در جستجو ادغام شود، هشداری در مورد نتایج آن ارائه شده است: “بارد ممکن است اطلاعات نادرست یا توهین‌آمیز را نشان دهد که دیدگاه‌های گوگل را نشان نمی‌دهد.”

او گفت: «من فکر می‌کنم اگر یک سازمان خبری با کیفیت هستید، باید شما را وادار کند که دست از کار بکشید و سؤالات بسیار بزرگی در مورد اینکه آیا واقعاً می‌توانید آن را به شکل کنونی آن منتشر کنید، بپرسید.

این مشکل برای بسیاری از ناشران خبری غیر قابل حل است. بحث در مورد اینکه آیا این نوع توهمات با توسعه فناوری از بین خواهند رفت، یا اینکه آیا آنها بخشی اجتناب ناپذیر از هوش مصنوعی مولد خواهند بود، ادامه دارد، به این معنی که برای رسیدن به درجه بالایی از دقت برای تبدیل شدن به یک منبع واقعاً قابل اعتماد تلاش خواهد کرد.

پلتفرم هوش مصنوعی Generative همچنین تهدیدی برای ناشران اخبار از طریق ظاهر شدن آنها در نتایج جستجو است. موران توضیح داد: «جایی که شروع می‌شود واقعاً نگران‌کننده می‌شود، و جایی که می‌بینید این فضای مشکل در یک منطقه حتی بزرگ‌تر باز می‌شود، زمانی است که مایکروسافت و گوگل و دیگران این ابزارها را در مکان‌هایی مانند جستجو ایجاد می‌کنند که می‌توانید انتظار یک نتیجه قطعی و قطعی داشته باشید. پاسخ دقیق تا حدی ممکن است مزخرف ایجاد کند.

و شاید او قطعاتی را به گاردین یا تایمز یا نیویورک تایمز نسبت داده است که هرگز وجود نداشته اند. و من فکر می کنم که این پیامدهای کاملاً آشکاری برای اکوسیستم اطلاعاتی دارد.

او افزود که موتورهای جستجو و چت ربات ها همچنین می توانند اعتماد به برندهای خبری را با استناد به آنها در برابر توهمات “به طور بالقوه” تضعیف کنند.

موران همچنین به پیامدهای “بسیار” مدل های کسب و کار ناشران اخبار از نتایج جستجوی تولید شده توسط هوش مصنوعی اشاره کرد که به مردم در پاسخ به سؤالات آنها اطلاعات زیادی می دهد که دیگر نیازی به کلیک روی مقالات اصلی ندارند.

او گفت: «در واقع شما هوش مصنوعی Google را دارید که بین محتوای شما و کاربر و اطراف وب‌سایت شما واسطه می‌شود… جالب است که اگر این میانجی‌گری با یک هشدار سالم همراه باشد که می‌گوید هیچ یک از اینها ممکن است درست نباشد، به نظر من سؤالات جالبی می‌پرسید. در مورد اینکه آیا Gen AI یک فناوری خوب برای استفاده در حال حاضر در یک محیط جستجو به ویژه است یا خیر.

کریس موران
کریس موران، رئیس نوآوری تحریریه گاردین. عکس: گاردین

موران خاطرنشان کرد که گاردین چندین سال است که یک API راه اندازی کرده است که از طریق آن مردم می توانند برای دریافت جریانی از محتوای آن پول پرداخت کنند، اما هیچ شرکت هوش مصنوعی برای درخواست استفاده از آن حاضر نشده است. FT در ماه ژوئن گزارش داد که ناشران از جمله News Corp، Axel Springer، New York Times و The Guardian در حال مذاکره با شرکت های فناوری بر سر حق چاپ و پرداخت برای استفاده از محتوای آنها در چت بات ها هستند.

موران گفت که گاردین «به این فکر می‌کند که محتوای ما در این محیط چقدر ارزش دارد» و اضافه کرد که «یک چیز مطمئن است، رسانه‌های خبری در بسیاری از این مجموعه‌های خزنده عمومی به طور قابل توجهی برتری می‌کنند».

اصول هوش مصنوعی گاردین

موضوع کپی رایت یکی از سه «اصول» گاردین در مورد هوش مصنوعی مولد است که در ژوئن منتشر شد، که می‌گوید: «یک اصل راهنما برای ابزارها و مدل‌هایی که در نظر داریم از آنها استفاده کنیم، میزانی است که آنها سؤالات کلیدی مانند مجوزها را در نظر گرفته‌اند. شفافیت و پاداش عادلانه.»

این اصول همچنین می‌گویند که قبل از استفاده از هوش مصنوعی مولد به هر نحوی، یک روزنامه‌نگار گاردین باید دلیل سودمندی آن برای خوانندگان را توجیه کند، آن را توسط یک ویرایشگر امضا کند و اطمینان حاصل کند که به طور شفاف به کاربر سیگنال داده می‌شود. هر گونه استفاده نیز تنها در صورتی باید انجام شود که کیفیت کار را بهبود بخشد و از ماموریت گاردین پشتیبانی کند.

با وجود معرفی این اصول، هوش مصنوعی مولد هنوز به هیچ وجه در گاردین به فرآیند تولید اضافه نشده است.

موران توضیح داد: “ما تعهد داریم که نمی خواهیم مردم این چیزها را فقط به خاطر جدید بودن آنها بپذیرند… یکی از چیزهای جالب در مورد کارایی و هوش مصنوعی مولد در یک سازمان خبری در حال حاضر این است که اگر نمی توانید آن را بدون حضور انسان در حلقه خودکار کنید، سپس اگر مجبور باشید دوباره آن را بررسی کنید، فرصت‌های اثربخشی کاهش می‌یابد.

و مهمتر از همه، کاری که نمی‌خواهیم انجام دهیم این است که یکی از چیزهایی را حذف کنیم که ما را از پتانسیل موج عظیمی از محتوای مصنوعی محافظت می‌کند که قرار است ما را غرق کند، یعنی اینکه ما روزنامه‌نگاران آموزش دیده هستیم و سردبیران و ما انسان هستیم. بنابراین ما به دنبال موارد استفاده هستیم که به طور خاص در مورد اینکه چه کاری می تواند انجام دهد که ما نمی توانیم انجام دهیم؟ چه کاری می تواند انجام دهد که کارهای پیش پا افتاده تر را از متخصصان حذف کند تا آنها برای انجام کارهای خود آزاد شوند؟ و غیره.”

موران که شغلش اغلب او را به عنوان پل ارتباطی بین اتاق خبر و محصول و تیم های مهندسی می بیند، گفت که اگرچه ابزارهای هوش مصنوعی مولد هنوز پیاده سازی نشده اند، اما توسط روزنامه نگاران گاردین آزمایش شده اند تا کشف کنند که واقعاً چه چیزی ممکن است وجود داشته باشد. مفید

موران گفت که این ابزارها می‌توانند «کاملاً موفق» تیتر بنویسند، به‌ویژه اگر در قالب خاصی باشند: برای مثال، تیتر مصاحبه می‌گوید که شخص کیست، معمولاً با نقل قول و زمینه‌های وسیع‌تر.

با این حال، او افزود: «دوباره، برای روشن شدن، ما هرگز نتوانستیم این را خودکار کنیم. حتی با اعلان‌هایی که با دقت طراحی شده‌اند، باز هم گاهی اوقات نقل قول‌هایی را ارائه می‌کند، حتی زمانی که از او بخواهید کلمه به کلمه از یک متن نقل قول کند. بنابراین این سوال پیش می آید که آیا این مفید است؟

موران همچنین گفت که وبلاگ نویسان زنده گاردین در حال بازی کردن در پشت صحنه با بازنگری های تولید شده توسط هوش مصنوعی هستند تا ببینند آیا این می تواند به آنها کمک کند که مجبور نباشند به نوشته های قبلی خود بازگردند تا هر چند ساعت یکبار چه اتفاقی در حال رخ دادن است.

او همچنین مثالی از رباتی ارائه کرد که به عنوان مثال می‌توانست به نویسنده‌ای در هنگام ارسال نسخه‌ی خود به یک ربات فنی مانند محیط یا علم بگوید که باید زبان خود را ساده‌تر کند یا چیزهای خاصی را بهتر برای مخاطب عام توضیح دهد.

موران در پاسخ به این سوال که چه زمانی ممکن است این ابزارها در اتاق خبر گاردین جایی داشته باشند، گفت: «من فکر می‌کنم که ما انتخاب کنیم یکی از این مدل‌ها را در یک محیط تولید، به خصوص در پشت مکالمه IP، به کار بگیریم، این یک سؤال بزرگ است. و من فکر می کنم برای انجام این کار، ما باید موارد استفاده ای داشته باشیم که نه تنها خوب هستند، بلکه به طور کلی دگرگون کننده هستند.

بنابراین در حال حاضر، نه، ما اصلاً تحت هیچ فشاری برای اجرای این موارد نیستیم. من واقعا به این واقعیت افتخار می کنم که ما نیستیم. من فکر می کنم این موضع درستی است که بگوییم این چیزها چگونه کار می کنند؟ چه فایده ای برای خواننده دارد؟ آیا می توانید این را جدا کنید؟ و آیا هر چیز دیگری ارزشش را دارد؟»

نکته دیگری که باید قبل از اجرای ابزارهای هوش مصنوعی مولد توسط کارکنان در نظر گرفته شود، آموزش آنها در مورد خطرات احتمالی آن در رفتار عادی کاریشان است، به عنوان مثال هنگام استفاده از دکمه هایی مانند “این را مختصرتر کن”.

موران به عنوان مثال دیگری گفت: «بیشتر خبرنگاران نباید برای تحقیق به این چیزها دست بزنند. “اگر به Google مراجعه می‌کنید و نمی‌توانید چیزی را که به دنبال آن هستید پیدا کنید، رفتن به ChatGPT زیرا نمی‌توانید آن را پیدا کنید، تقریباً مطمئناً حرکت بسیار بدی است.”

او فاش کرد که گاردین قبلاً تظاهراتی را در مقابل 270 نفر در اتاق خبر بریتانیا و در سرتاسر اتاق‌های خبری ایالات متحده و استرالیا برگزار کرده است و آنها در نهایت نوعی دستورالعمل رسانه‌های اجتماعی برای کارکنان ایجاد خواهند کرد که این منطقه را پوشش می‌دهد.

موران گفت: «آموزش از نظر رفتار کاری عادی در اینجا تقریباً مهم‌تر از چیزی است که می‌خواهید بسازید.

موران گفت، ناشران همچنین در قبال روزنامه نگاران و دیگران، مانند طراحان و عکاسان، که مشاغل آنها می تواند تحت تاثیر ورود هوش مصنوعی مولد قرار گیرد، مسئولیت دارند.

وی در ادامه هشدار داد: «در حال حاضر به نظر من افرادی وجود خواهند داشت که به سمت کارآمدی حرکت می‌کنند، و من شخصاً می‌گویم که برای انجام این کار خیلی زود است، فکر نمی‌کنم بتوانید به اندازه کافی روی آن سرمایه‌گذاری کنید.» هنوز تصمیمات مهمی گرفته اند

اما او افزود: «فکر می‌کنم واقعیت این است که در حال حاضر نمی‌دانیم این چیزها چگونه روی ما تأثیر می‌گذارد. ما این کار را نمی کنیم. و فکر می‌کنم یک شخص بسیار شجاع‌تر از من لازم است که بگوید همه چیز درست می‌شود یا همه چیز به یک فاجعه تبدیل می‌شود.

“یک چیزی که ما می دانیم این است که اگر فناوری بهبود یابد، شغل در مقطعی تغییر خواهد کرد.”

برای شنیدن مصاحبه کامل با کریس موران، به پادکست Future of Media Explained Press Gazette گوش دهید.

پست الکترونیک [email protected] برای اشاره به اشکالات، ارائه نکات داستانی، یا ارسال نامه ای برای انتشار در وبلاگ صفحه نامه ما.