نگراني از فناوري تشخيص چهره / نه دليل که بايد نگران اين فناوري باشيد
فناوري تشخيص چهره به سرعت در حال گسترش است. نرم افزاري که با مقايسه تصاوير چهره انسان با يک پايگاه داده از سوابق کل جامعه، افراد را شناسايي مي کند و قطعا دنياي آينده ما را نيز تغيير خواهد داد؛ البته اين فناوري در همين لحظه که اين مطلب منتشر مي شود به شدت در چين گسترده شده است اما آيا کل دنيا آماده پذيرش اين مهمان ناخوانده در لحظه لحظه زندگي روزمره هست؟ به طور معمول اين فناوري در بين نيروهاي پليس بيشتر رواج يافته اما در فرودگاه ها، ايستگاه هاي راه آهن و مراکز خريد نيز در حال استفاده گسترده است و اين مي تواند چالش هاي عجيبي در زندگي آينده همه ما ايجاد کند.
همان طور که گفتيم فناوري تشخيص چهره به شدت در دنيا در حال گسترش است و به همين دليل بحث بر سر نتايج استفاده از اين فناوري در آينده نزديک بسيار ضروري خواهد بود. براي مثال فعالان، سياستمداران، دانشگاهيان و حتي نيروهاي پليس در مورد تأثير شناسايي چهره بر فرهنگ سياسي مبتني بر حقوق و دموکراسي ابراز نگراني هاي جدي مي کنند. البته چنين موضوعي در کشورهايي با ساختار متمرکز سياسي مانند چين، بحث هاي زيادي در بر نخواهد داشت اما آيا جهان غرب و کشورهايي که خود را صاحب دموکراسي مي دانند نيز مي توانند چنين تعرض هايي به حريم شخصي را تاب بياورند؟ علاوه بر همه اين موضوعات در کشور ما ايران اين چالش ها در آينده اي نزديک مي تواند به شدت زندگي ما را تغيير دهد.
در اينجا نه دليل را براي شما بيان مي کنيم که ما بايد نگران استفاده از فناوري تشخيص چهره در فضاهاي عمومي باشيم.
1) نظارت شديد خودکار بر زندگي روزمره
در بحث نگراني از فناوري تشخيص چهره بحث هاي نظارت شديد دولت بر رفتار عمومي در ابتداي موضوعات قرار مي گيرد به عبارتي با استفاده از اين فناوري نظارت بر رفتار شهروندان از سوي دولت به شدت زياد مي شود. بگذاريد با يک مثال واقعي تر بحث را باز کنيم، دوربين مداربسته در حال حاضر در سراسر شهرهاي ما گسترده شده اند، اما براي استفاده دولت از فيلم اين دوربين ها عليه شما، آنها بايد کليپ هاي خاصي از شما را پيدا کنند که کاري را انجام مي دهيد تا به استناد به اين فيلم ها جرمي به شما نسبت داده شود.اما با مجهز شدن اين دوربين ها به فناوري هاي مبتني بر تشخيص چهره چنين نظارت هايي به شدت افزايش مي يابد و تشديد مي شود. بنابراين فناوري تشخيص چهره ، نظارت بر رفتار هاي عمومي را به سطوح جديدي مي رساند. همچنين اين فناوري اين امکان را براي نظارت زنده و خودکار بر روي افراد در هنگام انجام کارهاي روزمره فراهم مي کند و به مقامات اين فرصت را مي دهد تا هر حرکت شما را رديابي کنند. اين يک فيلم هاليوودي نيست، اين داستاني است که همين لحظه در حال اجرايي شدن در دنياي واقعي است. شرکت هاي زيادي در زمينه تکنولوژي تشخيص چهره در حال فعاليت هستند و در اين ميان مي توان شرکت هايک ويژن را يکي از پيشگامان اين تکنولوژي در نظر گرفت.
2)عدم وجود چارچوب قانوني يا نظارتي مشخص
اکثر کشورها قانون خاصي براي استفاده از دوربين هاي تشخيص چهره ندارند که استفاده از اين فناوري را تنظيم کند. اگرچه برخي از قانونگذاران در تلاشند اين مورد را تغيير دهند اما براي رسيدن به يک قانون مشخص و درست راه بسياري بايد طي شود. به همين دليل است که اين بلاتکليفي حقوقي راه را براي سو استفاده از اين فناوري باز مي کند، مانند به دست آوردن تصاوير ما بدون اطلاع و رضايت ما و استفاده از آنها به روش هايي که تصويب نمي کنيم.
3) نقض حريم خصوصي
حق حريم خصوصي، حتي در فضاهاي عمومي نيز اهميت دارد. اين موضوع از فاش شدن هويت ما در مقابل دخالت دولت ها و بدون درخواست دولت يا شرکت هاي خصوصي محافظت مي کند. ضبط و ذخيره سازي و تجزيه و تحليل تصاوير ما در مقياس بزرگ و گسترده در فناوري تشخيص چهره، اين حق عمومي و انساني را تضعيف مي کند زيرا اين بدان معناست که ما ديگر نمي توانيم در ملا عام کاري انجام دهيم بدون اينکه دولت در مورد آن آگاهي نداشته باشد. بنابراين در بحث نگراني از فناوري تشخيص چهره نقض حريم خصوصي افراد مهمترين دغدغه عمومي به حساب مي آيد.
بيشتر بخوانيد: نصب دوربين مدار بسته تي وي تي
4) تخريب فرهنگ سياسي دموکراتيک
موضوع مهم ديگر اين است که نظارت گسترده عموم مردم با استفاده از فناوري دوربين هاي تشخيص چهره مي تواند افراد را از حضور در رويدادهاي عمومي منصرف کند. اين موضوع مي تواند مشارکت در اعتراضات سياسي و کارزارهاي تغيير جامعه را نيز به طور کامل خفه کند. همچنين اين تکنولوژي مي تواند رفتار ناسازگار را به شدت سرکوب کند و بدين شکل ما شاهد يک جامعه مرده خواهيم بود. اين اثر خنثي کننده نقض جدي در حق آزادي اجتماعات ، و آزادي بيان به حساب مي آيد.
5) اين تکنولوژي رضايت مندي شهروندان را کاهش مي دهد
در مورد چگونگي استفاده از فناوري تشخيص چهره در واقع اطلاعات دقيق و خاصي وجود ندارد. اين بدان معني است که به عموم مردم فرصتي داده نمي شود که با ضبط، تجزيه و تحليل و ذخيره تصاوير خود در پايگاه داده موافقت داشته باشند. به همين دليل با محروم کردن شهروندان از رضايت عمومي در زندگي، آنها را از انتخاب و کنترل استفاده از تصاوير خود محروم مي کنيم.
6) اشتباهات گسترده در محاسبات
مطالعات متعدد نشان داده است که الگوريتم هاي آموزش داده شده بر روي مجموعه داده هاي اين فناوري با اشتباهات گسترده روبرو است و در نتيجه افراد رنگين پوست، به ويژه زنان رنگين پوست را اشتباه شناسايي مي کند. چنين الگوريتمي به ويژه اگر منجر به دستگيري هاي غيرقانوني شود، يا اگر سازمان هاي دولتي و شرکت هاي خصوصي را به تبعيض عليه زنان و مردم از نژاد اقليت سوق دهد، به شدت نگران کننده خواهد بود.
7) افزايش سوبرداشت هاي مقرضانه
افرادي که از نرم افزار تشخيص چهره استفاده مي کنند به اشتباه اعتقاد دارند که اين فناوري بدون خطا است و اين موضوع مي تواند منجر به تصميمات نادرست در سيستم ها و سازمان هاي نظارتي شود. کاملا واضح است که نتايج توليد شده توسط ماشين ها و فناوري هاي با چنين نواقصي نبايد نحوه رفتار آژانس هاي دولتي يا شرکت هاي خصوصي با افراد را تعيين کند. بر اساس يک اصل کاملا منطقي اپراتورهاي آموزش ديده انساني بايد کنترل معني داري بر اين تکنولوژي داشته باشند و براساس قانون تصميم بگيرند.
8) سو استفاده توسط گروه هاي مخفي دولتي
پايگاه هاي داده اي که حاوي تصاوير چهره ما هستند بايد زنگ هشدار را به صدا درآورند. اين موضوع حاکي از آن است که شرکت هاي خصوصي و آژانس هاي اجراي قانون تصاوير ما را براي ساختن ليست هاي مظنونين احتمالي بدون اطلاع و رضايت ما مي توانند اين اطالعات را به اشتراک بگذارند. اين تهديدي جدي براي حقوق فردي و آزادي هاي مدني ما است. امنيت اين پايگاه هاي داده و آسيب پذيري آنها در برابر عملکرد هکرها نيز باعث نگراني مضاعف خواهد شد. نگراني از فناوري تشخيص چهره در چنين موضوعاتي بيشتر شبيه فيلم ها هيجاني و هاليوودي مي شود اما بايد اين اخطار را به شما بدهيم که در واقعيت اين کار در حال انجام است و نظارت شديدي در آينده بر رفتار شما اعمال خواهد شد.
9) سو استفاده از تکنولوژي تشخيص چهره عليه اقشار ضعيف
براي نظارت بر جرايم احتمالي که در سطح شهرها رخ مي دهد مي توان از فناوري تشخيص چهره استفاده کرد. اما همچنين اين فناوري مي تواند به صورت انتخابي و با نيت هاي ديگر نيز به کار گرفته شود. به عنوان مثال براي شناسايي مهاجران و پناهندگان و يا حتي براي سرکوب کردن جناح هاي سياسي ديگر. همچنين دولت هايي که به نقض آشکارحقوق اقليت ها در کشورشان متهم هستند مي توانند از اين فناوري براي سرکوب بيشتر اين اقليت ها استفاده کنند.
بحث شديداً مورد نياز
با نگراني هاي فراوان در مورد فناوري تشخيص چهره ، ما به شدت به گفتگوي برجسته تري در مورد تأثير اين فناوري بر حقوق و آزادي هاي مدني نياز داريم. بدون تنظيم صحيح اين سيستم ها، ما مي توانيم دولت هاي پليسي را در کشورهاي مختلف دنيا ايجاد کنيم که در نهايت به از دست رفتن آزادي هاي اجتماعي و تشکيل دولت هاي سرکوب گر منتهي مي شود. فاشيسم با اين تکنولوژي يک قدم به جامعه جهاني نزديک تر مي شود.
- http://webkaran.avablog.ir/post/22/%D8%A7%D8%B5%D9%88%D9%84+%D8%A7%D9%88%D9%84%DB%8C%D9%87+%D8%B7%D8%B1%D8%A7%D8%AD%DB%8C+%D8%B5%D9%81%D8%AD%D8%A7%D8%AA+%D9%88%D8%A8
- http://web24.avablog.ir/post/22/%D8%A7%D8%B5%D9%88%D9%84+%D8%A7%D9%88%D9%84%DB%8C%D9%87+%D8%B7%D8%B1%D8%A7%D8%AD%DB%8C+%D8%B5%D9%81%D8%AD%D8%A7%D8%AA+%D9%88%D8%A8
- http://web24.avablog.ir/post/30/3+%D8%B1%D9%88%D8%B4+%D8%A7%D8%B5%D9%84%DB%8C+%D8%B3%D8%A7%D8%AE%D8%AA+%D8%B3%D8%A7%DB%8C%D8%AA
- http://web24.avablog.ir/post/28/%D9%BE%D9%84%D8%A7%DA%AF%DB%8C%D9%86+%28Plugin%29+%DB%8C%D8%A7+%D8%A7%D9%81%D8%B2%D9%88%D9%86%D9%87+%DA%86%DB%8C%D8%B3%D8%AA%D8%9F
- http://web24.avablog.ir/post/26/%DA%AF%D9%88%D8%A7%D9%87%DB%8C%D9%86%D8%A7%D9%85%D9%87+SSL+%DA%86%DB%8C%D8%B3%D8%AA+%D9%88+%DA%86%D8%B1%D8%A7+%D8%A7%DB%8C%D9%86%D9%82%D8%AF%D8%B1+%D9%85%D9%87%D9%85+%D8%A7%D8%B3%D8%AA%D8%9F