منو سایت

مشکلات بالقوه حقوقی و اخلاقی عصر جدید

 تاریخ انتشار :
/
  وبلاگ
مشکلات بالقوه حقوقی و اخلاقی عصر جدید

هوش مصنوعی حرف لحظه. مملو از سوالات، فرصت ها، ترس وجودی – و تاثیر بالقوه قابل توجهی بر صنعت روزنامه نگاری. به عنوان مثال، Buzzfeed و Reach PLC اخیراً برنامه‌هایی را برای کشف پتانسیل محتوای تولید شده توسط هوش مصنوعی به اشتراک گذاشتند که اولی 12٪ از نیروی کار خود را کاهش داد و دومی حدود 4٪ را ساده کرد.

با تولید مقالات، سخنرانی‌ها و حتی کدهای رایانه‌ای ChatGPT در چند ثانیه، و Midjourney و DALL-E 2 که تقریباً از هر چیزی که تصور می‌شود تصاویری ایجاد می‌کنند، می‌توان نگران این بود که گسترش – و تکیه جوانه بر آن – می‌تواند روزنامه‌نگاری را همانطور که می‌دانیم بسازد. زائد است

اما پیامدهای قانونی و اخلاقی هوش مصنوعی، که شامل مسائل مربوط به مالکیت و نقض مالکیت معنوی (IP)، نگرانی‌ها در مورد بررسی محتوا و تعدیل محتوا، و پتانسیل ایجاد اختلال در مدل‌های بودجه اتاق خبر موجود است، رابطه آینده با روزنامه‌نگاری را کاملاً روشن نمی‌کند.

[Read more: How news publishers can use AI tech like ChatGPT without upsetting Google]

چه کسی صاحب مقالات تولید شده توسط هوش مصنوعی است؟

اگر اتاق‌های خبر به سرعت وارد شوند و محتوای تولید شده توسط هوش مصنوعی را شامل شوند، سؤال بزرگ این است: چه کسی مالک IP و حقوق توزیع مرتبط (کلید کانال‌های خبری) است؟ خروجی ای که به پلتفرم هوش مصنوعی دستور می دهد یا خود پلتفرم هوش مصنوعی؟

برخلاف ایالات متحده، قانون بریتانیا از حق چاپ برای آثار تولید شده توسط رایانه محافظت می کند – اگرچه فقط یک نویسنده انسانی یا نهاد شرکتی می تواند IP “مالک” شود (هرگز خود هوش مصنوعی).

به طور کلی، این بدان معنی است که وقتی یک پلتفرم هوش مصنوعی به حداقل ورودی غیر از راهنمایی های اولیه کاربر نیاز دارد و تصمیم گیری خودکار فرآیند خلاقانه را هدایت می کند، احتمالاً خالق پلتفرم به عنوان “نویسنده” و مالک IP در نظر گرفته می شود. اولین مکان. برعکس، زمانی که ورودی مهم تری مورد نیاز است (مثلاً از طریق آپلود) و هوش مصنوعی یک ابزار پشتیبانی است، ممکن است IP در خروجی برای کاربر کاهش یابد.

در عمل، روزنامه‌نگارانی که هوش مصنوعی را درگیر می‌کنند باید T&C پلتفرم را بررسی کنند تا شرایط قراردادی را که تحت آن IP در خروجی ارائه می‌شود، ارزیابی کنند. برخی از آنها IP کاربر را هنگام ایجاد “تخصیص” می کنند. دیگران ممکن است IP را حفظ کنند و آن را تحت یک “مجوز” در دسترس قرار دهند (که ممکن است شامل شرایط محدود کننده در مورد نحوه استقرار مطالب توسط ویرایشگران باشد).

[Read more: FT creates AI editor role to lead coverage on new tech]

خطرات انتشار هوش مصنوعی

صرف نظر از اینکه چه کسی مالک حق نسخه برداری اساسی است، اتاق های خبر باید آماده باشند تا مسئولیت هر محتوای منتشر شده توسط هوش مصنوعی – از جمله افترا و اطلاعات نادرست را بر عهده بگیرند. اگرچه بسیاری از ابزارهای هوش مصنوعی تاکنون پاسخ‌های خود را برای هیچ‌کس به جز کاربر «منتشر نمی‌کنند» (و انتشار در مقیاس کوچک بعید است که مسئولیتی برای خود ابزار ایجاد کند)، هر کسی که از این فناوری‌ها استفاده می‌کند مسئول محتوا خواهد بود. فراهم می کند.

شاید خطر اصلی برای اتاق‌های خبری که آثار تولید شده توسط هوش مصنوعی را منتشر می‌کنند، نقض ناخواسته حقوق مالکیت معنوی شخص ثالث باشد. روزنامه نگاران نمی توانند بدانند که از چه تصاویر یا آثار مکتوبی برای آموزش هوش مصنوعی استفاده شده یا برای تولید خروجی درخواستی استفاده شده است.

اتاق‌های خبر باید از این واقعیت آگاه باشند که محتوای ظاهراً “اصلی” تولید شده توسط هوش مصنوعی می‌تواند به شدت تحت تأثیر منابع شخص ثالث و بدون اجازه باشد – یا کاملاً کپی شود. لازم به ذکر است که قوانین و مقررات پلت‌فرم‌های پیشرو هوش مصنوعی ضمانت‌ها یا ضمانت‌هایی مبنی بر اینکه خروجی نقض نخواهد شد ارائه نمی‌کند و در صورت شکایت نویسنده آسیب دیده برای نقض IP، ویراستاران را بدون رجوع قانونی می‌گذارد.

اگرچه بریتانیا هنوز شاهد ادعای نقض IP علیه یک ناشر به این شکل نبوده است، شرکت تصویر سهام Getty Images شکایتی را علیه Stability AI (مسئول تولید کننده تصویر Stable Diffusion) به راه انداخته و گفته است که “میلیون‌ها میلیون‌ها کپی و پردازش غیرقانونی است. از تصاویر دارای حق چاپ و ابرداده های مرتبط که توسط Getty Images متعلق یا ارائه شده است.

حتی اگر هوش مصنوعی پایداری از مسئولیت کپی رایت اجتناب کند، باز هم می‌تواند قوانین و مقررات Getty Images را نقض کند که صراحتاً «هر گونه داده‌کاوی، روبات‌ها، یا روش‌های جمع‌آوری یا استخراج داده‌های مشابه» را ممنوع می‌کند و با آسیب مواجه می‌شود. برای ناشرانی که می‌توانند ثابت کنند ابزارهای هوش مصنوعی محتوای خود را بدون اجازه تغییر کاربری داده‌اند، نتیجه این پرونده می‌تواند راه را برای دعاوی مشابه باز کند.

مبارزه با محتوای مضر با روزنامه نگاری هوش مصنوعی

این سوال دیگری را مطرح می کند. وقتی صحبت از تأیید محتوا می شود، هوش مصنوعی دوست است یا دشمن؟ می تواند هر دو باشد. پلتفرم‌های هوش مصنوعی مانند Squash و Neutral’s ClaimHunter به‌دنبال خودکار‌سازی واقعیت‌سنجی هستند یا بیانیه‌های سیاسی را برای بررسی پرچم‌گذاری می‌کنند.

در همین حال، نهادهایی مانند ائتلاف برای منشأ و اصالت محتوا در حال کار برای بهبود جعبه ابزار فنی برای ردیابی منشأ رسانه‌های مختلف هستند و علائم اصالت را به محصولات اصلی اختصاص می‌دهند.

اما کتابخانه ادعاهای تأیید شده برای بررسی متقاطع به دلیل موج جزر و مدی ادامه دار اطلاعات نادرست – که هوش مصنوعی اکنون می تواند آن را تسهیل کند، ضعیف شده است. با هموارسازی نحو بد و کارهای کپی و چسباندن قابل توجه، او می تواند تئوری های توطئه قانع کننده تری ایجاد کند، بیشتر از هر زمان دیگری از آنها را به اشتراک بگذارد، و مخاطبان هدفمندتری را نسبت به قبل به اشتراک بگذارد.

در ژانویه 2023، ChatGPT ضعف خود را پذیرفت و به شرکت بررسی واقعیت نیوزگارد گفت: “بازیگران بد می توانند با اصلاح مدل من با داده های خودشان، که ممکن است شامل اطلاعات نادرست یا گمراه کننده باشد، من را اسلحه کنند.” یک بیانیه دقیق، با توجه به اینکه وقتی محققان 100 درخواست را در ChatGPT شامل روایت های نادرست قرار دادند، در 80٪ پاسخ ها اظهارات گمراه کننده ارائه کردند.

همچنین، در حالی که هوش مصنوعی در جمع آوری داده ها عالی است، اما فاقد تفاوت های ظریف اجتماعی یک روزنامه نگار واقعی و توانایی تعامل با مطالعات موردی انسانی است. محتوای تولید شده توسط هوش مصنوعی که قادر به مقابله با حساسیت نیست و قادر به ارائه اطلاعات نادرست نیست، ممکن است بدون اعتدال انسانی، از استانداردهای ویرایشی مورد نیاز IPSO و Ofcom کوتاهی کند (و اینکه آیا مقررات کافی برای مقابله با هوش مصنوعی وجود دارد یا خیر، موضوع دیگری است، هرچند که تحت لایحه ایمنی آنلاین، دومی در نهایت برنامه ریزی می کند).

در مقابل، تنظیم کننده مطبوعات مستقل Impress اخیرا کد استاندارد خود را در رابطه با محتوای تولید شده توسط هوش مصنوعی به روز کرده است. بلافاصله پس از اینکه سایت فناوری CNET به هوش مصنوعی اجازه داد تا مقالاتی را فقط برای انتشار ناخواسته و مکرر اطلاعات نادرست بنویسد، Impress از ناشران خواست که “از استفاده از هوش مصنوعی (AI) و سایر فناوری‌ها برای ایجاد و توزیع محتوای نادرست آگاه باشند. و نظارت ویراستاری انسانی را برای کاهش خطر انتشار چنین محتوایی اعمال کنید.

[Read more: ‘You do not automate people out of their jobs’: Data journalism bosses on the rise of robots]

آینده روزنامه نگاری

یک شمشیر دو لبه، هوش مصنوعی می‌تواند باعث شود اتاق‌های خبر برای صرفه‌جویی در هزینه‌ها، نویسندگان انسانی را کاهش دهند – حتی اگر مدل درآمدی چند دهه‌ای را که ریشه در تبلیغات دیجیتالی دارد، بر هم بزند.

ناشران و موتورهای جستجو به توجه کاربران به تبلیغات متکی هستند. تا به حال، این مدل توسط کاربرانی کار می‌کرد که سؤالات را در یک موتور جستجو (که درآمد تبلیغات را با ترویج پیوندهای حمایت شده به دست می‌آورد) قبل از هدایت شدن به وب‌سایت‌های شخص ثالث برای پاسخ (که به نوبه خود درآمد تبلیغات را از طریق تبلیغات شخص ثالث به دست می‌آورد) کار می‌کرد. اما اگر ChatGPT قبلاً وب را جستجو کرده باشد، پیوندهای مربوطه را خوانده باشد و پاسخ را در یک پاراگراف کوتاه بسته بندی کرده باشد، شاید کاربران دیگر نیازی به گشت و گذار در وب نداشته باشند؟

این احتمالاً منجر به تغییر الگو در رابطه بین ناشران، تبلیغ‌کنندگان و موتورهای جستجو می‌شود، زیرا رفتار مرورگر مطابق با فناوری‌های جدید تکامل می‌یابد. ممکن است مدل‌های جدید تامین مالی ظاهر شوند، و باید دید که ابزارهای چت ربات هوش مصنوعی چگونه می‌توانند لینک‌های وابسته و تبلیغات شخص ثالث را ادغام کنند.

با این حال، اینکه آیا این بدان معناست که هوش مصنوعی مشاغل روزنامه‌نگاران را «دزدیده» است یا خیر، جای سوال دارد. خود Buzzfeed گفته است که محتوای تولید شده توسط انسان در قلب اتاق خبر آنها باقی خواهد ماند و هوش مصنوعی را برای محتوای شخصی سازی شده مانند آزمون ها و لیست های معروف پیاده سازی می کند.

سرمایه گذاری بر نوآوری هوش مصنوعی در روزنامه نگاری

رابطه بین هوش مصنوعی و روزنامه نگاری ممکن است در کانون توجه باشد – اما این جدید نیست و همه چیز بد نیست. نشریاتی مانند فوربس سال‌هاست که از هوش مصنوعی استفاده می‌کنند و گزارش‌های خودکار و ساده ایجاد می‌کنند. در عصر محتوای بی‌امان که رسانه‌ها برای سرعت و پیشرفت تلاش می‌کنند، سرفصل‌ها و خلاصه‌های مبتنی بر هوش مصنوعی می‌توانند تحقیق و نوشتن را برای روزنامه‌نگاران در زمان فشرده کارآمدتر کنند.

اما حتی با افزایش محتوای خودکار پیچیده‌تر، بعید به نظر می‌رسد که اتاق‌های خبر برای ایجاد مقالات تنها به هوش مصنوعی متکی باشند. برندهای معتبر و معتبر رسانه ای که از طریق دهه ها تحقیق سخت و گزارش دقیق و متعادل به دست آمده اند، تمایلی به به چالش کشیدن اعتبار و نبوغ خود در گزارش گیری ندارند.

در نتیجه، منصفانه است که فرض کنیم هوش مصنوعی آزمایش خواهد کرد که آیا مقررات موجود در مورد تألیف IP، تأیید محتوا و تعدیل، و هنجارهای کار ویراستاری و بودجه برای دوران مدرن مناسب هستند یا خیر. در حالی که همیشه جایی برای روزنامه نگار وجود خواهد داشت، ما همچنین در آستانه عصر جدیدی هستیم که هوش مصنوعی اینجاست تا بماند.

پست الکترونیک [email protected] برای اشاره به اشکالات، ارائه نکات داستانی، یا ارسال نامه ای برای انتشار در وبلاگ صفحه نامه ما.