تا به حال فکر کرده اید که سلفی ای که در یک سایت رسانه اجتماعی بارگذاری می کنید چه اتفاقی می افتد؟ مدتهاست که فعالان و محققان در مورد حریم خصوصی داده ها هشدار می دهند و می گویند عکس های بارگذاری شده در اینترنت ممکن است برای آموزش ابزارهای شناسایی چهره مجهز به هوش مصنوعی (AI) استفاده شود. این ابزارهای دارای هوش مصنوعی (مانند Clearview ، AWS Rekognition ، Microsoft Azure و Face ++) می توانند به نوبه خود توسط دولتها یا سایر مسسات برای ردیابی افراد و حتی نتیجه گیری از جمله ترجیحات مذهبی یا سیاسی موضوع مورد استفاده قرار گیرند. محققان با استفاده از حملات خصمانه – یا روشی برای تغییر دادن داده های ورودی که باعث می شود یک مدل یادگیری عمیق اشتباه کند ، روش هایی برای جعل یا جعل این ابزارهای هوش مصنوعی از توانایی شناسایی یا حتی تشخیص سلفی ، پیدا کرده اند.

دو مورد از این روش ها هفته گذشته در کنفرانس بین المللی نمایندگان یادگیری (ICLR) ارائه شد. ، یک کنفرانس برجسته هوش مصنوعی که به طور مجازی برگزار شد. با توجه به هدف گزارش توسط MIT Technology Review ، بیشتر این ابزارهای جدید برای تحریک نرم افزار تشخیص چهره تغییرات کوچکی را در تصویری ایجاد می کنند که برای چشم انسان قابل مشاهده نیستند اما می توانند هوش مصنوعی را اشتباه بگیرند ، مجبور کردن نرم افزار به اشتباه در شناسایی واضح شخص یا شی in موجود در تصویر ، یا حتی جلوگیری از درک آن یک عکس سلفی است.

امیلی ونگر ، از دانشگاه شیکاگو ، ایجاد کرده است یکی از این ابزارهای “مخفی کردن تصویر” ، به نام فاکس ، با همکارانش. مورد دیگر که LowKey نام دارد ، توسط والریا Cherepanova و همکارانش در دانشگاه مریلند ساخته شده است.

  • پلیس لکنو فن آوری تشخیص چهره را برای یافتن” پریشانی “به کار می گیرد

فاکس آشفتگی های سطح پیکسل را به تصاویری که سیستم شناسایی چهره را از شناسایی افراد در آنها متوقف می کند اما این تصویر را برای انسان بدون تغییر می گذارد. در آزمایشی با یک مجموعه داده کوچک متشکل از 50 تصویر ، مشخص شد که فاکس در مقایسه با سیستم های تجاری شناسایی تجاری 100 درصد موثر است. فاکس را می توان برای Windows و Mac بارگیری کرد ، و روش آن در یک مقاله با عنوان محافظت حریم شخصی در برابر مدلهای یادگیری عمیق غیرمجاز.

با این حال ، نویسندگان خاطرنشان می کنند که فاکس نمی تواند سیستم های موجود را که قبلاً روی تصاویر محافظت نشده شما آموزش دیده اند ، گمراه کند. LowKey ، که با تغییر جزئی تصاویر در سیستم ونگر گسترش می یابد تا حدی که می تواند مدل های هوش مصنوعی تجاری از پیش آموزش خورده را فریب دهد و از شناخت فرد در تصویر جلوگیری کند. LowKey ، با جزئیات در مقاله با عنوان “استفاده از حملات خصمانه برای محافظت از کاربران رسانه های اجتماعی” از «شناسایی چهره» ، در دسترس است برای استفاده آنلاین.

روش دیگری ، مفصل در مقاله ای با عنوان” مثالهای غیر قابل یادگیری: ساخت شخصی ” داده های غیر قابل بهره برداری توسط Daniel Ma و سایر محققان دانشگاه Deakin در استرالیا ، چنین “مسمومیت داده ای” را یک قدم جلوتر می برد ، با ایجاد تغییراتی در تصاویر که یک مدل هوش مصنوعی را مجبور می کند آن را در حین آموزش دور بیندازد ، از ارزیابی پس از آموزش جلوگیری می کند.

  • سیستم شناسایی چهره Intel RealSense ID راه اندازی شد

ونگر خاطرنشان می کند که فاکس برای مدت کوتاهی قادر به فریب مایکروسافت لاجورد نبود ، و گفت ،” ناگهان به نوعی محکم پوشانده تصاویری که ایجاد کرده بودیم … ما نمی دانیم چه اتفاقی افتاده است. ” او گفت که اکنون یک مسابقه علیه AI است ، بعدا فاکس به روز شد تا بتواند دوباره Azure را جعل کند. وی افزود: “این یک مسابقه تسلیحاتی موش و گربه است.”

  • مایکروسافت فروش تشخیص چهره به پلیس را ممنوع می کند زیرا فناوری بزرگ در برابر اعتراضات واکنش نشان می دهد
  • آمازون استفاده از پلیس برای شناسایی چهره خود را برای یک سال ممنوع می کند

  • IBM از تجارت شناسایی چهره خارج می شود ، خواستار اصلاح پلیس است

گزارش نیز نقل قول می کند د ونگر می گوید اگرچه مقررات موجود درمقابل استفاده از چنین ابزارهای هوش مصنوعی به حفظ حریم شخصی افراد کمک می کند ، اما همیشه “آنچه” از نظر قانونی قابل قبول است و آنچه مردم می خواهند “” قطع خواهد شد ، و روشهای جعل مانند فاکس می تواند به “پر کردن این خلا” کمک کند. او می گوید انگیزه اش برای توسعه این ابزار ساده بود: “دادن قدرتی” به مردم که قبلاً آنها را نداشتند.