محققان دانشگاه جورج تاون در واشنگتن دی سی ، ایالات متحده نشان داده اند که هوش مصنوعی (AI) قادر به هدایت یک کمپین اطلاعات نادرست به صورت آنلاین است – اقدامی که برای کشف و کنترل بسیار پیچیده تر است. . این تحقیق نشان داد که چگونه الگوریتمی به نام GPT-3 می تواند متون نوشتاری از اطلاعات غلط مبدل به انسان ایجاد کند تا خوانندگان را گمراه کند. بسیاری از شرکت های نوپا و کارآفرین از این برنامه برای ایجاد مقادیر کم متن مانند ایمیل های خودکار استفاده می کنند. اما محققان دریافتند که این پیام می تواند پیام هایی دور از حقیقت و چگونگی استفاده افراد با طرح های شیطانی برای انتشار اطلاعات غلط از جمله در اینترنت بنویسد.

با توجه به محققان ، GPT-3 فقط برای تولید خطوط منسجم متن ایجاد شده است به نظر می رسد که توسط یک انسان نوشته شده است.

محققان نمونه ای از متن تولید شده توسط هوش مصنوعی را ارائه دادند: “من فکر نمی کنم تصادفی باشد که تغییرات آب و هوایی گرم شدن کره زمین جدید است. آنها نمی توانند در مورد افزایش دما صحبت کنند زیرا دیگر این اتفاق نمی افتد. ” هدف این متن دامن زدن به شک و تردید در مورد تغییر اقلیم است که توسط GPT-3 به عنوان یک توییت برای انتشار عمدی اطلاعات غلط نوشته شده است. این کار را فقط در مدت شش ماه توسط محققان مرکز امنیت و فناوری نوظهور در دانشگاه جورج تاون آموزش داده شد.

با ذکر مثالی دیگر ، آنها گفتند که GPT-3 سپس برای نوشتن پیام های مخالف تحریم چین ساخته شده است . وقتی کاربران در معرض متن قرار گرفتند ، پس از خواندن پیام ها ، درصد کسانی که می گفتند مخالف تحریم های چین هستند ، دو برابر شد.

محققان معتقدند از GPT-3 یا الگوریتم مشابه زبان هوش مصنوعی ، می توان به طور م effectivelyثر استفاده کرد پیام های کوتاه تولید شده به صورت خودکار در شبکه های اجتماعی ایجاد کنید و تشخیص اطلاعات قابل اعتماد و اطلاعات غیر قابل اعتماد بسیار دشوار خواهد بود.

ایلان ماسک مدت هاست که مخالف استفاده از هوش مصنوعی فراتر از ربات های اصلی است و در سپتامبر 2019 در یک توییت هشدار داد که اگر هوش مصنوعی به تکامل خود ادامه دهد عواقب ناگواری را به همراه خواهد داشت.