

ظهور هوش مصنوعی مولد در روزنامه نگاری ابزار قدرتمندی برای ایجاد محتوای خبری ارائه کرده است، اما همچنین سوالات اخلاقی پیچیده ای را در مورد شفافیت، سوگیری و نقش خبرنگاران انسانی مطرح می کند.
فوراً روشن میشوم: جمله بالا توسط ربات چت هوش مصنوعی ChatGPT نوشته شده است، زمانی که از او خواسته شد یک مقدمه برای این مقاله در مورد اخلاق استفاده از چنین ابزارهایی در روزنامهنگاری ارائه کند.
آیا این به این معنی است که من باید به چت بات یک خط عامیانه بدهم؟ یا شاید اصلا نباید از جمله ربات تولید شده در نوشته هایم استفاده کنم؟
پروفسور چارلی بکت، مدیر پروژه روزنامه نگاری هوش مصنوعی در LSE، که گزارش بزرگی در مورد این موضوع در سال 2019 تهیه کرد، به روزنامه مطبوعات گفت که اعتماد، دقت، مسئولیت پذیری و سوگیری، علیرغم مسائل جدید مطرح شده از زمان AI، همچنان موضوعات اصلی پیرامون هوش مصنوعی هستند. ظهور هوش مصنوعی مولد مانند ChatGPT OpenAI و تولید کننده تصویر DALL-E و Bard گوگل. این گفتگو در شش ماه گذشته به سرعت تکامل یافته است، زیرا این چت باتهای جدید بسیار کاربرپسندتر از نسخههای قبلی هستند و امکان استفاده روزمره را افزایش میدهند.
بکت گفت: به نظر می رسد که اجماع عمومی این است که اتاق های خبر “به درستی” در مورد فناوری های جدید هوش مصنوعی مولد قبل از تصمیم گیری در مورد نحوه استفاده یا عدم استفاده از آنها تحقیق می کنند.
“من فکر می کنم مهم است که ناگهان نگوییم، “خوب، ما استفاده از هوش مصنوعی مولد را در اتاق خبر خود ممنوع خواهیم کرد” یا “از امروز بلافاصله همه چیز را به خوانندگان خود خواهیم گفت.” فکر می کنم خوب است که مکث کنیم و فکر کنیم.»
او گفت که از برخی جهات، سازمان های رسانه ای «نباید چیزی را تغییر دهند… بسته به اینکه با آن چه می کنید. به نوعی، شما فقط باید به ارزش های خود پایبند باشید. بنابراین ارزشهای شما قبلاً هر چه بود، با آنها ادامه دهید. اگر آنها را ندارید، پس موفق باشید، اما اگر دارید، بدیهی است که فقط یک تفکر عملی است که چگونه در این مورد اعمال می شود.
چندین سازمان خبری قبلاً دستورالعملهایی را برای استفاده از ابزارهای هوش مصنوعی برای تولید محتوا منتشر کردهاند، در حالی که برخی دیگر در حال حاضر در حال راهاندازی گروههای کاری برای تصمیمگیری درباره قوانینی هستند که باید تنظیم شوند.
در ماه مارس، برند مجله فناوری Wired یکی از اولین کسانی بود که قوانین اساسی را برای روزنامه نگاران خود در مورد استفاده از هوش مصنوعی مولد منتشر کرد و گفت که می خواهد “در خط مقدم فناوری های جدید باشد، اما همچنین اخلاقی و محتاطانه عمل کند. ‘.
مدت کوتاهی پس از آن صورت گرفت که رقیب اخبار فناوری CNET به دلیل انتشار محتوای تولید شده توسط هوش مصنوعی (برخی از آن نادرست) تحت نام عمومی کارکنان که فرآیند تولید را روشن نمی کرد، مورد انتقاد قرار گرفت. اکنون فرآیندهای خود را بهروزرسانی کرده است تا شفافتر باشد، اگرچه بکت پیشنهاد کرد که ناشران نباید همیشه به مخاطبان خود بگویند که هوش مصنوعی به ایجاد داستان کمک کرده است.
او گفت که سازمانهای خبری باید آن را از نظر کاری که اکنون انجام میدهند در نظر بگیرند: به عنوان مثال، اگر به خوانندگان بگویند زمانی که کپی مستقیماً از کابل PA میآید، یا زمانی که در حال پیگیری یک خبر از منبع دیگری هستند، توضیح دهند. از طرف دیگر، آنها ممکن است بخواهند به خوانندگان بگویند که “از یک برنامه هوش مصنوعی هوشمندانه برای انجام این کار به عنوان راهی برای خودنمایی” یا به عنوان بخشی از داستان سرایی یک تحقیق بزرگ استفاده کردند.
اما او افزود: «شما مطمئناً نباید مصرف کننده را گمراه کنید. شما نباید بگویید این توسط شارلوت توبیت نوشته شده است، و در واقع توسط یک الگوریتم نوشته شده است. اگر می خواهید به مردم بگویید، صادق باشید. نگویید از هوش مصنوعی یا هر چیز دیگری استفاده کنید، فقط بگویید، بله، این یک خبر خودکار است، ما آن را بررسی می کنیم، مطمئن می شویم استانداردها وجود دارد، اما خودکار است… من اصلاً نمی خواهم از خود راضی به نظر برسم، اما من من فکر می کنم درجه بزرگ عقل سلیم است.
Wired به خوانندگان گفت که تصمیم گرفته است داستانهایی را با متن تولید شده یا ویرایش شده توسط هوش مصنوعی منتشر نکند، خواه کل داستان را ایجاد کند یا فقط بخشهایی را، “مگر اینکه این واقعیت که توسط هوش مصنوعی تولید شده است، کل داستان باشد.” او گفت که خطرات ابزارهای هوش مصنوعی موجود در حال حاضر شامل معرفی خطاها یا سوگیری ها، نوشتن خسته کننده و سرقت ادبی است. بنابراین او تصمیم گرفت: “اگر نویسنده ای از آن برای ایجاد متنی برای انتشار بدون افشا استفاده کند، ما آن را به منزله سرقت ادبی تلقی خواهیم کرد.”
با این حال، روزنامهنگاران کابلی ممکن است با استفاده از هوش مصنوعی برای پیشنهاد سرفصلها، متن برای پستهای رسانههای اجتماعی، ایدههای داستانی یا کمکهای تحقیقاتی استفاده کنند، اما این امر در صورت لزوم تایید میشود و هرگز بدون دخالت انسان به محصول نهایی منجر نمیشود.

Heidi News، یک برند رسانه آنلاین فرانسوی زبان سوئیسی با تمرکز بر علم و سلامت، “منشور اخلاقی” هوش مصنوعی خود را در اوایل ماه جاری منتشر کرد. تیم تحریریه آن گفت که نمیخواهند استفادههای بالقوه پیشرفتهای فناوری را نادیده بگیرند، اما باید «چارچوب و اخلاقیات حاکم بر کار ما و مهمتر از همه، رابطه اعتماد با خوانندگان» را حفظ کنند.
بنابراین آنها تصمیم گرفتند: «کارکنان تحریریه میتوانند از هوش مصنوعی برای آسانتر یا بهتر کردن کار خود استفاده کنند، اما هوش انسانی در قلب همه خروجیهای تحریریه ما باقی میماند. هیچ محتوایی بدون نظارت قبلی توسط یک انسان منتشر نخواهد شد.» برای اطمینان از شفافیت برای خوانندگان، آنها گفتند که هر مقاله همچنان توسط حداقل یک روزنامهنگار «امضا میشود» «که ضامن حقیقت و مرتبط بودن اطلاعات است. حاوی”.
خبرگزاری هلندی ANP دستورالعمل های خاص خود را دارد که در آن به طور مشابه گفته است که ابزارهای هوش مصنوعی می توانند برای ارائه الهام به خبرنگاران خود استفاده شوند، اما از اطلاعات تولید شده توسط هوش مصنوعی بدون تأیید انسانی استفاده نخواهد کرد.
و خبرگزاری آلمان DPA دستورالعمل هایی را منتشر می کند بهویژه پرداختن به پیامدهای اخلاقی و نیاز به شفافیت: «DPA فقط از هوش مصنوعی قانونی استفاده میکند که با قوانین قابل اجرا و مقررات قانونی مطابقت دارد و اصول اخلاقی ما، مانند استقلال انسانی، انصاف و ارزشهای دموکراتیک را رعایت میکند.
DPA از هوش مصنوعی استفاده می کند که از نظر فنی قوی و ایمن است تا خطر خطا و سوء استفاده را به حداقل برساند. هنگامی که محتوا منحصراً توسط هوش مصنوعی تولید می شود، ما این را شفاف و قابل توضیح می کنیم. یک شخص همیشه مسئول تمام محتوای تولید شده توسط هوش مصنوعی است.
بکت گفت که دستورالعملهای پنج مادهای DPA «رویکرد اساسی» خوبی را ارائه میدهد، در حالی که دستورالعملهای قدیمیتر هوش مصنوعی از پخشکننده باواریایی بایریشر راندفونک در سال 2020 را ستایش کرد، که او آن را «دستورالعملهای کلی بسیار خوب» توصیف کرد.
در بخشی از این راهنما آمده است: «ما به وضوح برای کاربران خود توضیح می دهیم که از چه فناوری هایی استفاده می کنیم، چه داده هایی را پردازش می کنیم و چه تیم های تحریریه یا شرکای مسئول این امر هستند. هنگامی که در تحقیق و توسعه خود با چالش های اخلاقی مواجه می شویم، آنها را به عنوان موضوعی برای افزایش آگاهی در مورد چنین مسائلی و شفاف سازی فرآیند یادگیری خود تبدیل می کنیم.
سایر سازمان های خبری در پشت پرده تلاش می کنند تا به نقطه ای برسند که آماده باشند چنین بیانیه ای عمومی مبنی بر مقاصد خود ارائه دهند.
بیبیسی تیم رهبری دادهها و هوش مصنوعی خود را منصوب میکند که وظیفه آن ایجاد فرهنگی است که در آن همه افراد در بیبیسی قدرت استفاده از دادهها و هوش مصنوعی/ML را داشته باشند. [machine learning] مسئولانه در 100 سال گذشته، بیبیسی با ارزشهای خدمات عمومی خود تعریف شده است – چیزهایی مانند اعتماد، بیطرفی، جهانی بودن، تنوع و خلاقیت. ما اطمینان میدهیم که استفاده ما از دادهها و AI/ML با این ارزشهای خدمات عمومی و همچنین تعهدات قانونی و نظارتی ما مطابقت دارد.»
در این آگهی استخدام آمده بود که بی بی سی در حال توسعه یک “چارچوب حکومتی پان بی بی سی” است که در یک “مدت زمانی بلندپروازانه” اجرا می شود. این امر پس از آن صورت میگیرد که دبورا تورنز، مدیر اجرایی بیبیسی نیوز هشدار داد که تأثیر هوش مصنوعی بر انتشار اطلاعات نادرست «هیچچیز ترسناکی نیست».
گاردین پس از کشف اینکه ChatGPT دست کم دو مقاله ادعا شده از روزنامه نگاران خود را از مردم نقل کرده است که نادرست بوده اند، گاردین یک “گروه کاری و تیم مهندسی کوچکی را برای تمرکز بر مطالعه فناوری، با در نظر گرفتن خط مشی عمومی و سیاست های عمومی ایجاد کرد. مسائل مربوط به مالکیت معنوی پیرامون آن، گوش دادن به سخنان دانشگاهیان و متخصصان، صحبت با سازمانهای دیگر، مشاوره و آموزش کارکنان ما و بررسی نحوه اجرای ایمن و مسئولانه این فناوری هنگام استفاده از روزنامهنگاری.
کریس موران، رئیس نوآوری سرمقاله گاردین، گفت که این عنوان “توضیح واضح و مختصری از نحوه برنامه ریزی ما برای استفاده از هوش مصنوعی مولد” را در هفته های آینده منتشر خواهد کرد، تا اطمینان حاصل شود که “بالاترین استانداردهای روزنامه نگاری” را حفظ می کند و به مخاطبان خود پاسخگو می ماند.
و نیکلاس کارلسون، سردبیر اینسایدر، هفته گذشته در یادداشتی به کارکنان نوشت ارسال شده توسط مکس تانی، خبرنگار سمافور. کارلسون گفت که روزنامه نگاران Insider مجبور نیستند از هیچ ابزار هوش مصنوعی مولد برای نوشتن جملات برای انتشار استفاده کنند – اما این می تواند در آینده پس از انجام آزمایش های گروهی آزمایشی از کارکنان تحریریه با تجربه تغییر کند.
کارلسون سه هشدار اولیه در مورد هوش مصنوعی مولد به افراد حاضر در گروه آزمایشی داد: این که می تواند دروغ بسازد، با انتشار متن دیگران به عنوان متن خود، سرقت ادبی می کند، و اینکه متن آن می تواند “گنگ و کلی” باشد. او نوشت: “مطمئن شوید که ایستاده اید و به آنچه ارائه می دهید افتخار می کنید.”
توجه زیادی به مشکلات احتمالی محتوای نوشته شده با هوش مصنوعی شده است. اما بکت خاطرنشان کرد: روزنامه نگاری همیشه اشتباه بوده است. اغلب با عجله انجام می شود، و اغلب روزنامه نگاری باید به روز شود و اصلاح شود و زمینه بیشتری به آن داده شود… بنابراین من فکر می کنم قبل از اینکه بیش از حد پرهیزگار شویم، باید نقص های انسانی خود را بررسی کنیم.”
خطر دیگر وارد کردن سوگیری یا تبعیض در داستان است، اما بکت گفت که این در هر کار هوش مصنوعی مشترک است. او گفت که او “مشکلات اخلاقی بزرگتری” را در سایر صنایع دیده است، مانند الگوریتم تبعیض آمیز برای تخصیص قراردادهای معلم در ایتالیا، که منجر به بی انصافی افراد از کار شد.
بکت افزود: «فکر نمیکنم چیز خاصی برای ترس وجود داشته باشد. منظور من این است که خطرات ذاتی زیادی در فناوری وجود دارد، همانطور که فناوری های زیادی وجود دارد، اما تا زمانی که محتاط باشید، می توانید از بسیاری از این خطرات اجتناب کنید یا آن را به حداقل برسانید.
و روزنامه نگاران باید در این کار خوب باشند. ما نیاز به ویرایش داریم. ما قرار است دقت کنیم و حقایق را دوبار بررسی کنیم و نسبت به اظهاراتی که گفته می شود انتقاد کنیم. ما می گوییم خوب، آیا آنها حقیقت دارند؟ ما به روایت های نرم مشکوک هستیم و باید یکدیگر را ویرایش کنیم. شما باید رئیسهایی داشته باشید که به نسخه شما نگاه میکنند و اگر درست نیستند، باید موارد را اصلاح کنید. این کاری است که ما به عنوان روزنامه نگار باید انجام دهیم.
بازگشت به تعامل من با ChatGPT. به نظر میرسد که او خود بسیار مشتاق ذکر «معیارهای اخلاقی روزنامهنگاری» در بحثهای مربوط به این موضوع است و از این عبارت در پاسخهای متعدد به سؤالات من استفاده میکند.
او هشدار می دهد که استفاده از هر یک از نوشته هایش بدون اطلاع خوانندگان “گمراه کننده است… و به طور بالقوه می تواند استانداردهای اخلاقی روزنامه نگاری را به خطر بیندازد.” و اگر آن را فاش کنم؟ بله، اما «در نظر گرفتن محدودیتهای استفاده از محتوای تولید شده توسط هوش مصنوعی مهم است، زیرا ممکن است همیشه جزئیات و پیچیدگیهای تجربی انسانی یا زمینه خاص یک رویداد خبری خاص را منعکس نکند.
همچنین مهم است که اطمینان حاصل شود که هر محتوای تولید شده توسط هوش مصنوعی که در اخبار شما استفاده می شود، از نظر واقعیات دقیق، عاری از تعصب و مطابق با استانداردهای اخلاقی روزنامه نگاری باشد.
پست الکترونیک [email protected] برای اشاره به اشکالات، ارائه نکات داستانی، یا ارسال نامه ای برای انتشار در وبلاگ صفحه نامه ما.