منو سایت

آنچه تاکنون می دانیم

 تاریخ انتشار :
/
  وبلاگ
آنچه تاکنون می دانیم

ظهور هوش مصنوعی مولد در روزنامه نگاری ابزار قدرتمندی برای ایجاد محتوای خبری ارائه کرده است، اما همچنین سوالات اخلاقی پیچیده ای را در مورد شفافیت، سوگیری و نقش خبرنگاران انسانی مطرح می کند.

فوراً روشن می‌شوم: جمله بالا توسط ربات چت هوش مصنوعی ChatGPT نوشته شده است، زمانی که از او خواسته شد یک مقدمه برای این مقاله در مورد اخلاق استفاده از چنین ابزارهایی در روزنامه‌نگاری ارائه کند.

آیا این به این معنی است که من باید به چت بات یک خط عامیانه بدهم؟ یا شاید اصلا نباید از جمله ربات تولید شده در نوشته هایم استفاده کنم؟

پروفسور چارلی بکت، مدیر پروژه روزنامه نگاری هوش مصنوعی در LSE، که گزارش بزرگی در مورد این موضوع در سال 2019 تهیه کرد، به روزنامه مطبوعات گفت که اعتماد، دقت، مسئولیت پذیری و سوگیری، علیرغم مسائل جدید مطرح شده از زمان AI، همچنان موضوعات اصلی پیرامون هوش مصنوعی هستند. ظهور هوش مصنوعی مولد مانند ChatGPT OpenAI و تولید کننده تصویر DALL-E و Bard گوگل. این گفتگو در شش ماه گذشته به سرعت تکامل یافته است، زیرا این چت بات‌های جدید بسیار کاربرپسندتر از نسخه‌های قبلی هستند و امکان استفاده روزمره را افزایش می‌دهند.

بکت گفت: به نظر می رسد که اجماع عمومی این است که اتاق های خبر “به درستی” در مورد فناوری های جدید هوش مصنوعی مولد قبل از تصمیم گیری در مورد نحوه استفاده یا عدم استفاده از آنها تحقیق می کنند.

“من فکر می کنم مهم است که ناگهان نگوییم، “خوب، ما استفاده از هوش مصنوعی مولد را در اتاق خبر خود ممنوع خواهیم کرد” یا “از امروز بلافاصله همه چیز را به خوانندگان خود خواهیم گفت.” فکر می کنم خوب است که مکث کنیم و فکر کنیم.»

او گفت که از برخی جهات، سازمان های رسانه ای «نباید چیزی را تغییر دهند… بسته به اینکه با آن چه می کنید. به نوعی، شما فقط باید به ارزش های خود پایبند باشید. بنابراین ارزش‌های شما قبلاً هر چه بود، با آنها ادامه دهید. اگر آنها را ندارید، پس موفق باشید، اما اگر دارید، بدیهی است که فقط یک تفکر عملی است که چگونه در این مورد اعمال می شود.

چندین سازمان خبری قبلاً دستورالعمل‌هایی را برای استفاده از ابزارهای هوش مصنوعی برای تولید محتوا منتشر کرده‌اند، در حالی که برخی دیگر در حال حاضر در حال راه‌اندازی گروه‌های کاری برای تصمیم‌گیری درباره قوانینی هستند که باید تنظیم شوند.

در ماه مارس، برند مجله فناوری Wired یکی از اولین کسانی بود که قوانین اساسی را برای روزنامه نگاران خود در مورد استفاده از هوش مصنوعی مولد منتشر کرد و گفت که می خواهد “در خط مقدم فناوری های جدید باشد، اما همچنین اخلاقی و محتاطانه عمل کند. ‘.

مدت کوتاهی پس از آن صورت گرفت که رقیب اخبار فناوری CNET به دلیل انتشار محتوای تولید شده توسط هوش مصنوعی (برخی از آن نادرست) تحت نام عمومی کارکنان که فرآیند تولید را روشن نمی کرد، مورد انتقاد قرار گرفت. اکنون فرآیندهای خود را به‌روزرسانی کرده است تا شفاف‌تر باشد، اگرچه بکت پیشنهاد کرد که ناشران نباید همیشه به مخاطبان خود بگویند که هوش مصنوعی به ایجاد داستان کمک کرده است.

او گفت که سازمان‌های خبری باید آن را از نظر کاری که اکنون انجام می‌دهند در نظر بگیرند: به عنوان مثال، اگر به خوانندگان بگویند زمانی که کپی مستقیماً از کابل PA می‌آید، یا زمانی که در حال پیگیری یک خبر از منبع دیگری هستند، توضیح دهند. از طرف دیگر، آنها ممکن است بخواهند به خوانندگان بگویند که “از یک برنامه هوش مصنوعی هوشمندانه برای انجام این کار به عنوان راهی برای خودنمایی” یا به عنوان بخشی از داستان سرایی یک تحقیق بزرگ استفاده کردند.

اما او افزود: «شما مطمئناً نباید مصرف کننده را گمراه کنید. شما نباید بگویید این توسط شارلوت توبیت نوشته شده است، و در واقع توسط یک الگوریتم نوشته شده است. اگر می خواهید به مردم بگویید، صادق باشید. نگویید از هوش مصنوعی یا هر چیز دیگری استفاده کنید، فقط بگویید، بله، این یک خبر خودکار است، ما آن را بررسی می کنیم، مطمئن می شویم استانداردها وجود دارد، اما خودکار است… من اصلاً نمی خواهم از خود راضی به نظر برسم، اما من من فکر می کنم درجه بزرگ عقل سلیم است.

Wired به خوانندگان گفت که تصمیم گرفته است داستان‌هایی را با متن تولید شده یا ویرایش شده توسط هوش مصنوعی منتشر نکند، خواه کل داستان را ایجاد کند یا فقط بخش‌هایی را، “مگر اینکه این واقعیت که توسط هوش مصنوعی تولید شده است، کل داستان باشد.” او گفت که خطرات ابزارهای هوش مصنوعی موجود در حال حاضر شامل معرفی خطاها یا سوگیری ها، نوشتن خسته کننده و سرقت ادبی است. بنابراین او تصمیم گرفت: “اگر نویسنده ای از آن برای ایجاد متنی برای انتشار بدون افشا استفاده کند، ما آن را به منزله سرقت ادبی تلقی خواهیم کرد.”

با این حال، روزنامه‌نگاران کابلی ممکن است با استفاده از هوش مصنوعی برای پیشنهاد سرفصل‌ها، متن برای پست‌های رسانه‌های اجتماعی، ایده‌های داستانی یا کمک‌های تحقیقاتی استفاده کنند، اما این امر در صورت لزوم تایید می‌شود و هرگز بدون دخالت انسان به محصول نهایی منجر نمی‌شود.

محدودیت‌های ChatGPT: مربوط به اخلاق در روزنامه‌نگاری هوش مصنوعی
ChatGPT به کاربران جدید در مورد محدودیت های خود می گوید

Heidi News، یک برند رسانه آنلاین فرانسوی زبان سوئیسی با تمرکز بر علم و سلامت، “منشور اخلاقی” هوش مصنوعی خود را در اوایل ماه جاری منتشر کرد. تیم تحریریه آن گفت که نمی‌خواهند استفاده‌های بالقوه پیشرفت‌های فناوری را نادیده بگیرند، اما باید «چارچوب و اخلاقیات حاکم بر کار ما و مهم‌تر از همه، رابطه اعتماد با خوانندگان» را حفظ کنند.

بنابراین آنها تصمیم گرفتند: «کارکنان تحریریه می‌توانند از هوش مصنوعی برای آسان‌تر یا بهتر کردن کار خود استفاده کنند، اما هوش انسانی در قلب همه خروجی‌های تحریریه ما باقی می‌ماند. هیچ محتوایی بدون نظارت قبلی توسط یک انسان منتشر نخواهد شد.» برای اطمینان از شفافیت برای خوانندگان، آنها گفتند که هر مقاله همچنان توسط حداقل یک روزنامه‌نگار «امضا می‌شود» «که ضامن حقیقت و مرتبط بودن اطلاعات است. حاوی”.

خبرگزاری هلندی ANP دستورالعمل های خاص خود را دارد که در آن به طور مشابه گفته است که ابزارهای هوش مصنوعی می توانند برای ارائه الهام به خبرنگاران خود استفاده شوند، اما از اطلاعات تولید شده توسط هوش مصنوعی بدون تأیید انسانی استفاده نخواهد کرد.

و خبرگزاری آلمان DPA دستورالعمل هایی را منتشر می کند به‌ویژه پرداختن به پیامدهای اخلاقی و نیاز به شفافیت: «DPA فقط از هوش مصنوعی قانونی استفاده می‌کند که با قوانین قابل اجرا و مقررات قانونی مطابقت دارد و اصول اخلاقی ما، مانند استقلال انسانی، انصاف و ارزش‌های دموکراتیک را رعایت می‌کند.

DPA از هوش مصنوعی استفاده می کند که از نظر فنی قوی و ایمن است تا خطر خطا و سوء استفاده را به حداقل برساند. هنگامی که محتوا منحصراً توسط هوش مصنوعی تولید می شود، ما این را شفاف و قابل توضیح می کنیم. یک شخص همیشه مسئول تمام محتوای تولید شده توسط هوش مصنوعی است.

بکت گفت که دستورالعمل‌های پنج ماده‌ای DPA «رویکرد اساسی» خوبی را ارائه می‌دهد، در حالی که دستورالعمل‌های قدیمی‌تر هوش مصنوعی از پخش‌کننده باواریایی بایریشر راندفونک در سال 2020 را ستایش کرد، که او آن را «دستورالعمل‌های کلی بسیار خوب» توصیف کرد.

در بخشی از این راهنما آمده است: «ما به وضوح برای کاربران خود توضیح می دهیم که از چه فناوری هایی استفاده می کنیم، چه داده هایی را پردازش می کنیم و چه تیم های تحریریه یا شرکای مسئول این امر هستند. هنگامی که در تحقیق و توسعه خود با چالش های اخلاقی مواجه می شویم، آنها را به عنوان موضوعی برای افزایش آگاهی در مورد چنین مسائلی و شفاف سازی فرآیند یادگیری خود تبدیل می کنیم.

سایر سازمان های خبری در پشت پرده تلاش می کنند تا به نقطه ای برسند که آماده باشند چنین بیانیه ای عمومی مبنی بر مقاصد خود ارائه دهند.

بی‌بی‌سی تیم رهبری داده‌ها و هوش مصنوعی خود را منصوب می‌کند که وظیفه آن ایجاد فرهنگی است که در آن همه افراد در بی‌بی‌سی قدرت استفاده از داده‌ها و هوش مصنوعی/ML را داشته باشند. [machine learning] مسئولانه در 100 سال گذشته، بی‌بی‌سی با ارزش‌های خدمات عمومی خود تعریف شده است – چیزهایی مانند اعتماد، بی‌طرفی، جهانی بودن، تنوع و خلاقیت. ما اطمینان می‌دهیم که استفاده ما از داده‌ها و AI/ML با این ارزش‌های خدمات عمومی و همچنین تعهدات قانونی و نظارتی ما مطابقت دارد.»

در این آگهی استخدام آمده بود که بی بی سی در حال توسعه یک “چارچوب حکومتی پان بی بی سی” است که در یک “مدت زمانی بلندپروازانه” اجرا می شود. این امر پس از آن صورت می‌گیرد که دبورا تورنز، مدیر اجرایی بی‌بی‌سی نیوز هشدار داد که تأثیر هوش مصنوعی بر انتشار اطلاعات نادرست «هیچ‌چیز ترسناکی نیست».

گاردین پس از کشف اینکه ChatGPT دست کم دو مقاله ادعا شده از روزنامه نگاران خود را از مردم نقل کرده است که نادرست بوده اند، گاردین یک “گروه کاری و تیم مهندسی کوچکی را برای تمرکز بر مطالعه فناوری، با در نظر گرفتن خط مشی عمومی و سیاست های عمومی ایجاد کرد. مسائل مربوط به مالکیت معنوی پیرامون آن، گوش دادن به سخنان دانشگاهیان و متخصصان، صحبت با سازمان‌های دیگر، مشاوره و آموزش کارکنان ما و بررسی نحوه اجرای ایمن و مسئولانه این فناوری هنگام استفاده از روزنامه‌نگاری.

کریس موران، رئیس نوآوری سرمقاله گاردین، گفت که این عنوان “توضیح واضح و مختصری از نحوه برنامه ریزی ما برای استفاده از هوش مصنوعی مولد” را در هفته های آینده منتشر خواهد کرد، تا اطمینان حاصل شود که “بالاترین استانداردهای روزنامه نگاری” را حفظ می کند و به مخاطبان خود پاسخگو می ماند.

و نیکلاس کارلسون، سردبیر اینسایدر، هفته گذشته در یادداشتی به کارکنان نوشت ارسال شده توسط مکس تانی، خبرنگار سمافور. کارلسون گفت که روزنامه نگاران Insider مجبور نیستند از هیچ ابزار هوش مصنوعی مولد برای نوشتن جملات برای انتشار استفاده کنند – اما این می تواند در آینده پس از انجام آزمایش های گروهی آزمایشی از کارکنان تحریریه با تجربه تغییر کند.

کارلسون سه هشدار اولیه در مورد هوش مصنوعی مولد به افراد حاضر در گروه آزمایشی داد: این که می تواند دروغ بسازد، با انتشار متن دیگران به عنوان متن خود، سرقت ادبی می کند، و اینکه متن آن می تواند “گنگ و کلی” باشد. او نوشت: “مطمئن شوید که ایستاده اید و به آنچه ارائه می دهید افتخار می کنید.”

توجه زیادی به مشکلات احتمالی محتوای نوشته شده با هوش مصنوعی شده است. اما بکت خاطرنشان کرد: روزنامه نگاری همیشه اشتباه بوده است. اغلب با عجله انجام می شود، و اغلب روزنامه نگاری باید به روز شود و اصلاح شود و زمینه بیشتری به آن داده شود… بنابراین من فکر می کنم قبل از اینکه بیش از حد پرهیزگار شویم، باید نقص های انسانی خود را بررسی کنیم.”

خطر دیگر وارد کردن سوگیری یا تبعیض در داستان است، اما بکت گفت که این در هر کار هوش مصنوعی مشترک است. او گفت که او “مشکلات اخلاقی بزرگتری” را در سایر صنایع دیده است، مانند الگوریتم تبعیض آمیز برای تخصیص قراردادهای معلم در ایتالیا، که منجر به بی انصافی افراد از کار شد.

بکت افزود: «فکر نمی‌کنم چیز خاصی برای ترس وجود داشته باشد. منظور من این است که خطرات ذاتی زیادی در فناوری وجود دارد، همانطور که فناوری های زیادی وجود دارد، اما تا زمانی که محتاط باشید، می توانید از بسیاری از این خطرات اجتناب کنید یا آن را به حداقل برسانید.

و روزنامه نگاران باید در این کار خوب باشند. ما نیاز به ویرایش داریم. ما قرار است دقت کنیم و حقایق را دوبار بررسی کنیم و نسبت به اظهاراتی که گفته می شود انتقاد کنیم. ما می گوییم خوب، آیا آنها حقیقت دارند؟ ما به روایت های نرم مشکوک هستیم و باید یکدیگر را ویرایش کنیم. شما باید رئیس‌هایی داشته باشید که به نسخه شما نگاه می‌کنند و اگر درست نیستند، باید موارد را اصلاح کنید. این کاری است که ما به عنوان روزنامه نگار باید انجام دهیم.

بازگشت به تعامل من با ChatGPT. به نظر می‌رسد که او خود بسیار مشتاق ذکر «معیارهای اخلاقی روزنامه‌نگاری» در بحث‌های مربوط به این موضوع است و از این عبارت در پاسخ‌های متعدد به سؤالات من استفاده می‌کند.

او هشدار می دهد که استفاده از هر یک از نوشته هایش بدون اطلاع خوانندگان “گمراه کننده است… و به طور بالقوه می تواند استانداردهای اخلاقی روزنامه نگاری را به خطر بیندازد.” و اگر آن را فاش کنم؟ بله، اما «در نظر گرفتن محدودیت‌های استفاده از محتوای تولید شده توسط هوش مصنوعی مهم است، زیرا ممکن است همیشه جزئیات و پیچیدگی‌های تجربی انسانی یا زمینه خاص یک رویداد خبری خاص را منعکس نکند.

همچنین مهم است که اطمینان حاصل شود که هر محتوای تولید شده توسط هوش مصنوعی که در اخبار شما استفاده می شود، از نظر واقعیات دقیق، عاری از تعصب و مطابق با استانداردهای اخلاقی روزنامه نگاری باشد.

پست الکترونیک [email protected] برای اشاره به اشکالات، ارائه نکات داستانی، یا ارسال نامه ای برای انتشار در وبلاگ صفحه نامه ما.