تا به حال فکر کرده اید که سلفی ای که در یک سایت رسانه اجتماعی بارگذاری می کنید چه اتفاقی می افتد؟ مدت هاست که فعالان و محققان در مورد حریم خصوصی داده ها هشدار می دهند و می گویند عکس های بارگذاری شده در اینترنت ممکن است برای آموزش ابزارهای شناسایی چهره مجهز به هوش مصنوعی (AI) استفاده شود. این ابزارهای مجهز به هوش مصنوعی (مانند Clearview ، AWS Rekognition ، Microsoft Azure و Face ++) به نوبه خود می توانند توسط دولتها یا سایر م institutionsسسات برای ردیابی افراد و حتی نتیجه گیری مانند ترجیحات مذهبی یا سیاسی موضوع مورد استفاده قرار گیرند. محققان با استفاده از حملات خصمانه – یا روشی برای تغییر داده های ورودی که باعث می شود یک مدل یادگیری عمیق اشتباه کند ، روش هایی برای جعل یا جعل این ابزارهای هوش مصنوعی از توانایی شناسایی یا حتی تشخیص سلفی ، پیدا کرده اند.

دو مورد از این روش ها هفته گذشته در کنفرانس بین المللی نمایندگان یادگیری (ICLR) ارائه شد. ، یک کنفرانس برجسته هوش مصنوعی که به طور مجازی برگزار شد. با توجه به هدف گزارش توسط MIT Technology Review ، بیشتر این ابزارهای جدید برای تحریک نرم افزار تشخیص چهره ، تغییرات کوچکی را در تصویری ایجاد می کنند که برای چشم انسان قابل مشاهده نیستند اما می توانند هوش مصنوعی را اشتباه بگیرند ، مجبور کردن نرم افزار به اشتباه در شناسایی واضح شخص یا شی in موجود در تصویر ، یا حتی جلوگیری از درک آن یک عکس سلفی است.

امیلی ونگر ، از دانشگاه شیکاگو ، ایجاد کرده است یکی از این ابزارهای ‘مخفی کردن تصویر’ ، به نام فاکس ، با همکارانش. مورد دیگر که LowKey نام دارد ، توسط والریا Cherepanova و همکارانش در دانشگاه مریلند ساخته شده است.

  • پلیس لکنو فن آوری تشخیص چهره را برای یافتن” پریشانی “به کار می گیرد

فاکس آشفتگی های سطح پیکسل را به تصاویری که سیستم شناسایی چهره را از شناسایی افراد در آنها متوقف می کند اما این تصویر را برای انسان بدون تغییر می گذارد. در آزمایشی با یک مجموعه داده کوچک متشکل از 50 تصویر ، مشخص شد که فاکس 100 درصد در برابر سیستم های تجاری شناسایی تجاری تجاری موثر است. فاکس را می توان برای Windows و Mac بارگیری کرد ، و روش آن در یک مقاله با عنوان محافظت حریم شخصی در برابر مدلهای یادگیری عمیق غیرمجاز.

با این حال ، نویسندگان خاطرنشان می کنند که فاکس نمی تواند سیستم های موجود را که قبلاً روی تصاویر محافظت نشده شما آموزش دیده اند ، گمراه کند. LowKey ، که با تغییر جزئی تصاویر در سیستم ونگر گسترش می یابد تا حدی که می تواند مدل های هوش مصنوعی تجاری از پیش آموزش دیده را فریب دهد و از شناسایی فرد در تصویر جلوگیری کند. LowKey ، با جزئیات در مقاله با عنوان “استفاده از حملات خصمانه برای محافظت از کاربران رسانه های اجتماعی از «شناسایی چهره» ، در دسترس است برای استفاده آنلاین.

روش دیگری ، مفصل در مقاله ای با عنوان” مثالهای غیر قابل یادگیری: ساخت شخصی ” داده های غیر قابل بهره برداری توسط Daniel Ma و سایر محققان دانشگاه Deakin در استرالیا ، چنین “مسمومیت داده ای” را یک گام جلوتر می برد ، با ایجاد تغییراتی در تصاویر که یک مدل AI را مجبور می کند آن را در حین آموزش دور بیندازد ، مانع از ارزیابی پس از آموزش می شود.

  • سیستم شناسایی چهره Intel RealSense ID راه اندازی شد

ونگر خاطرنشان می کند که فاکس برای مدت کوتاهی قادر به فریب مایکروسافت لاجورد نبود و گفت:” ناگهان به طریقی محکم پوشانده شد تصاویری که ایجاد کرده بودیم … ما نمی دانیم چه اتفاقی افتاده است. ” او گفت که اکنون یک مسابقه علیه AI است ، بعدا فاکس به روز شد تا بتواند دوباره Azure را جعل کند. وی افزود: “این یک مسابقه تسلیحاتی موش و موش دیگر است.”

  • مایکروسافت فروش شناخت چهره به پلیس را ممنوع می کند زیرا فناوری بزرگ در برابر اعتراضات واکنش نشان می دهد
  • آمازون استفاده پلیس از شناسایی چهره خود را برای یک سال ممنوع می کند

  • IBM از تجارت شناسایی چهره خارج می شود ، درخواست اصلاح پلیس

گزارش نیز نقل قول می کند د ونگر می گوید اگرچه مقررات موجود درمقابل استفاده از چنین ابزارهای هوش مصنوعی به حفظ حریم شخصی افراد کمک می کند ، اما همیشه یک “قطع” از نظر قانونی قابل قبول و آنچه مردم می خواهند وجود خواهد داشت و روشهای جعل مانند فاکس می تواند به “پر کردن این خلا” کمک کند. او می گوید انگیزه اش برای توسعه این ابزار ساده بود: “دادن قدرتی” به مردم که قبلاً آنها را نداشتند.