هوش مصنوعی با خواندن دو کتاب، سبک نویسندگان مشهور را بازآفرینی می‌کند

پژوهشی مشترک از دانشگاه «استونی بروک» و دانشکده‌ی حقوق دانشگاه «کلمبیا» نشان داده است که مدل‌های هوش مصنوعی قادرند تنها با آموزش بر پایه‌ی دو اثر از یک نویسنده، متونی تولید کنند که از نظر سبک و کیفیت، حتی از نوشته‌های نویسندگان حرفه‌ای تقلیدگر نیز برتر ارزیابی شوند. این یافته‌ها می‌تواند پیامدهای مهمی برای قوانین حق‌تألیف و دعاوی حقوقی در ایالات متحده داشته باشد.

در این مطالعه، از نویسندگان حرفه‌ای و سه سامانه‌ی پیشرفته‌ی هوش مصنوعی خواسته شد متونی در سبک پنجاه نویسنده‌ی شناخته‌شده از جمله برندگان نوبل و بوکر بنویسند. سپس ۱۵۹ شرکت‌کننده، شامل کارشناسان نویسندگی و خوانندگان عمومی، بدون اطلاع از منشأ متن، کیفیت و شباهت سبکی آثار را ارزیابی کردند. نتایج نشان داد نسخه‌های آموزش‌دیده‌ی ویژه از مدل GPT-4o با اختلاف چشمگیری برتر شناخته شدند. کارشناسان در ۸ برابر موارد، متن‌های هوش مصنوعی را از نظر شباهت سبکی برگزیدند و در دو برابر موارد نیز از نظر کیفیت نگارش آن‌ها را ترجیح دادند.

پژوهشگران اعلام کردند که تفاوت میزان داده‌های آموزشی تأثیری بر نتیجه نداشته است؛ به طوری که نویسندگانی با تنها دو اثر منتشرشده به همان اندازه قابل تقلید بودند که نویسندگان پرکار و مطرح. هزینه‌ی آموزش چنین مدلی برای هر نویسنده حدود ۸۱ دلار برآورد شده، در حالی که سفارش مشابه به یک نویسنده‌ی حرفه‌ای دست‌کم ۲۵ هزار دلار هزینه دارد؛ کاهش قیمتی نزدیک به ۹۹/۷ درصد.

این توانایی می‌تواند چالش‌های تازه‌ای برای حقوق مؤلف ایجاد کند. دادگاه‌های آمریکا در حال بررسی پرونده‌هایی هستند که به استفاده‌ی غیرقانونی از آثار نویسندگان در آموزش هوش مصنوعی مربوط می‌شود. در یکی از این پرونده‌ها مشخص شده که میلیون‌ها کتاب از منابع غیرقانونی دریافت و برای آموزش مدل‌ها استفاده شده است. پژوهشگران هشدار داده‌اند که اگر مخاطبان نسخه‌های تقلیدی تولیدشده توسط هوش مصنوعی را به آثار اصلی ترجیح دهند، این موضوع می‌تواند مصداقی از «زیان بازار» باشد. آنان پیشنهاد کرده‌اند که استفاده از آثار فردی برای آموزش تقلیدی ممنوع شود یا متون تولیدشده توسط هوش مصنوعی به‌طور واضح برچسب‌گذاری شوند.

0 مورد نقد و بررسی

→ خواندن مطلب قبلی

گوگل علیه گروهی از هکرهای سایبری شکایت کرد

خواندن مطلب بعدی ←

جزئیات اولین حمله هوش مصنوعی فاش شد

نوشتن نظر شما

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *