چگونه ابتدا توسط هوش مصنوعی بدنام شدم و سپس حذف شدم - جاناتان تورلی
انتشار: آذر 26، 1403
بروزرسانی: 25 خرداد 1404

چگونه ابتدا توسط هوش مصنوعی بدنام شدم و سپس حذف شدم - جاناتان تورلی


در زیر ستون من در The Hill در مورد گزارش های اخیر است که استفاده از نام من در درخواست های جستجو در ChatGPT منجر به خطا و عدم پاسخ می شود. ظاهراً من در این پناهگاه افراد ارواح تنها نیستم. این جنجال سوالات بدیع و ،ره آوری را در مورد رشد سریع سیستم های هوش مصنوعی ایجاد می کند.

در اینجا ستون است:

هر روز نیست که به مقام «او-که نباید نام برد» می رسید. اما این تمایز عجیب توسط ChatGPT OpenAI به من داده شده است نیویورک تایمز، وال استریت ژورنال، و سایر نشریات

برای بیش از یک سال، افرادی که سعی می ،د با استفاده از ChatGPT به صورت آنلاین درباره نام من تحقیق کنند، با یک هشدار خطای فوری مواجه شدند.

به نظر می رسد که من در میان گروه کوچکی از افرادی هستم که عملاً توسط سیستم هوش مصنوعی ناپدید شده اند. اینکه چگونه به این وضعیت ولدمورتی رسیدیم، داست، هولناک نه تنها در مورد نقش به سرعت در حال گسترش هوش مصنوعی، بلکه در مورد قدرت شرکت هایی مانند OpenAI است.

در این تمایز مشکوک، پروفسور هاروارد، جاناتان زیترین، مجری CNBC، دیوید فابر، شهردار استرالیایی برایان هود، پروفسور ،یسی دیوید مایر، و چند نفر دیگر به من ملحق می شوند.

به نظر می رسد موضوع مش، داستان های نادرستی است که در گذشته توسط ChatGPT درباره همه ما ایجاد شده است. به نظر می رسد این شرکت مشکل را نه با پاک ، خطا بلکه با پاک ، افراد مورد نظر اصلاح کرده است.

تا اینجای کار، شبح سازی به سایت های ChatGPT محدود می شود، اما این جنجال یک سوال جدید سیاسی و حقوقی را در دنیای جدید و شجاع هوش مصنوعی برجسته می کند.

مسیر من به سمت پاک ، سایبری با یک حساب کاربری عجیب و کاملا ساختگی توسط ChatGPT آغاز شد. همانطور که در آن زمان نوشتم، ChatGPT به دروغ گزارش داد که ادعای آزار ، علیه من وجود داشته است (که هرگز وجود نداشت) بر اساس چیزی که ظاهراً در سفر سال 2018 با دانشجویان حقوق به آ،کا اتفاق افتاده است (که هرگز اتفاق نیفتاده است)، در حالی که من در دانشکده حقوق جورج تاون (جایی که هرگز تدریس نکرده ام) بود.

ChatGPT در حمایت از ادعای نادرست و افتراآمیز خود به مقاله ای در واشنگتن پست استناد کرد که هرگز نوشته نشده بود و از بی،ه ای استناد کرد که هرگز توسط رو،مه صادر نشده بود. واشنگتن پست در مورد این داستان دروغ تحقیق کرد و کشف کرد که یک برنامه هوش مصنوعی دیگر، "Bing مایکروسافت، که توسط GPT-4 پشتیب، می شود، ادعای نادرست در مورد Turley را تکرار کرد."

اگرچه برخی از ،، که به این شیوه بدنام شده اند تصمیم گرفتند از این شرکت ها به دلیل گزارش های توهین آمیز هوش مصنوعی شکایت کنند، من این کار را نکردم. من فرض کردم که شرکتی که هرگز با من تماس نگرفته است، مشکل را اصلاح کند.

و این کار به نوعی انجام شد - ظاهراً با پاک ، دیجیتالی من، حداقل تا حدی. در برخی از جهان های الگوریتمی، منطق ساده است: اگر بحثی در مورد فرد وجود نداشته باشد، داستان نادرستی وجود ندارد.

مانند ولدمورت، حتی مرگ نیز تضمینی برای بسته شدن نیست. پروفسور مایر یک استاد ممتاز و ممتاز درام و استاد پژوهشی افتخاری در دانشگاه من،تر بود که سال گذشته درگذشت. و ChatGPT ظاهراً هنوز نام او را بر زبان نمی آورد.

قبل از مرگش، نام او توسط یک شورشی چچنی در فهرست دیده بان تروریسم استفاده می شد. نتیجه یک انجمن گلوله برفی از استاد بود که خود را با محدودیت های مسافرتی و ارتباطی مواجه کرد.

هود، شهردار استرالیا، آنقدر از روایت نادرست تولید شده توسط هوش مصنوعی ناامید شده بود که به دلیل رشوه گیری دستگیر شد. اقدام قانونی علیه OpenAI انجام داد. این ممکن است به پاک ، خودش کمک کرده باشد.

عدم شفافیت و پاسخگویی این شرکت بر نگر، ها در مورد این حوادث افزوده است. از قضا، بسیاری از ما به حملات دروغین در اینترنت و اکانت های دروغین درباره خود عادت کرده ایم. اما این شرکت بدون هیچ دلیل دیگری می تواند افراد را به یک نوع برزخ آنلاین منتقل کند جز اینکه هوش مصنوعی آن داست، دروغین تولید کرده است که موضوع آن جرات اعتراض داشت.

شما می تو،د به دروغ به ،وان یک جنایتکار دیده شوید یا به طور کامل در سیستم اطلاعاتی همه جا دیده شوید. کاپون یا کاسپر، گانگستر یا روح - انتخاب شما.

مایکروسافت تقریباً نیمی از سهام OpenAI را در اختیار دارد. از قضا، من قبلا از بنیانگذار و میلیاردر مایکروسافت انتقاد کردم بیل گیتس به دلیل تلاش او برای استفاده از هوش مصنوعی نه تنها برای مبارزه با «اطلاعات غلط دیجیتالی» بلکه «قطب بندی سیاسی». گیتس راه اندازی هوش مصنوعی را راهی برای توقف «تئوری های توطئه مختلف» و جلوگیری از «بزرگ نمایی برخی دیدگاه ها توسط کانال های دیجیتال» می داند. وی افزود که هوش مصنوعی می تواند با بررسی "سوگیری تایید" با "قطب بندی سیاسی" مبارزه کند.

من باور نمی کنم که شبح خودم انتقام چنین انتقادی باشد. علاوه بر این، من مانند سایر desparecidos هنوز در سایت ها و از طریق سیستم های دیگر قابل مشاهده هستم. اما نشان می دهد که چگونه این شرکت ها می توانند از این سیستم های قدرتمند برای حذف تمام ارجاعات به افراد استفاده کنند. علاوه بر این، مدیران شرکت ها ممکن است انگیزه خاصی برای اصلاح چنین شبح سازی نداشته باشند، به ویژه در صورت عدم وجود هرگونه مسئولیت یا پاسخگویی.

این بدان م،است که هر راه حلی احتمالاً فقط از طریق اقدام قانونی حاصل می شود. نفوذ هوش مصنوعی به طور تصاعدی در حال گسترش است و این فناوری جدید مزایای آشکاری دارد. با این حال، خطرات قابل توجهی نیز دارد که باید مورد توجه قرار گیرد.

از قضا، پروفسور زیترین نوشته است:حق فراموش شدن” در فضاهای فناوری و دیجیتال. با این حال او هرگز نخواست که توسط الگوریتم های OpenAI پاک یا مسدود شود.

سؤال این است که آیا علاوه بر حق سلبی فراموش شدن، حق مثبتی نیز برای شناخته شدن وجود دارد؟ به آن به ،وان لحظه هایزنبرگ فکر کنید، جایی که والتر وایتز جهان از ChatGPT می خواهد که «نام من را بگوید». در ایالات متحده، هیچ سابقه ثابتی برای چنین تقاضایی وجود ندارد.

هیچ دلیلی وجود ندارد که این حذف ها یا حذف ها را به ،وان یک توطئه تاریک شرکتی یا انتقام ربات تلقی کنیم. زم، که سیستم مرتکب خطاهای فاحش و بالقوه گران می شود، به نظر می رسد یک موقعیت پیش فرض باشد - که ممکن است حتی ناراحت کننده تر باشد. این چشم انداز الگوریتم هایی را افزایش می دهد که افراد را با کمک یا پاسخ اندک به ورطه اینترنت می فرستند. شما فقط شبح شده اید زیرا سیستم اشتباه کرده است و نام شما اکنون برای سیستم فعال است.

این همه به خوبی کوتاه است هال 9000 گفتن "متاسفم دیو، می ترسم نتوانم این کار را انجام دهم" با عصب،ت آدمکشی با هوش مصنوعی. تا اینجای کار، این محل اقامتگاه کوچکی از ارواح دیجیتال است. با این حال، این نمونه ای از قدرت تا حد زیادی کنترل نشده این سیستم ها و آب های نسبتا ناشناخته پیش رو است.

جاناتان تورلی، استاد شاپیرو حقوق منافع عمومی در دانشگاه جورج واشنگتن است. او نویسنده کتاب «حق ضروری: آزادی بیان در عصر خشم"



منبع: https://jonathanturley.org/2024/12/16/g،sted-by-chatgpt-،w-i-was-first-defamed-and-then-deleted-by-ai/