مردیث ویتاکر سیگنال: هوش مصنوعی اساسا “یک فناوری نظارتی” است

چرا بسیاری از شرکت‌هایی که به کسب درآمد از داده‌های کاربران خود متکی هستند، به نظر می‌رسد در زمینه هوش مصنوعی بسیار داغ هستند؟ اگر از مردیث ویتاکر، رئیس سیگنال بپرسید (و من پرسیدم)، او به شما خواهد گفت که این فقط به این دلیل است که “هوش مصنوعی یک فناوری نظارتی است.”

روی صحنه در TechCrunch Disrupt 2023، ویتاکر دیدگاه خود را توضیح داد که هوش مصنوعی تا حد زیادی از صنعت داده‌های بزرگ و هدف‌گیری که توسط شرکت‌هایی مانند گوگل و متا تداوم می‌یابد، و همچنین شرکت‌های تجاری و دفاعی کمتر متمرکز بر مصرف‌کننده اما به همان اندازه برجسته جدایی ناپذیر است. (سخنان او برای وضوح کمی ویرایش شده است.)

این نیاز به مدل کسب و کار نظارت دارد. این تشدید چیزی است که از اواخر دهه 90 و توسعه تبلیغات نظارتی دیده ایم. به نظر من هوش مصنوعی راهی برای تقویت و گسترش مدل کسب و کار نظارت است.» “نمودار ون یک دایره است.”

“و استفاده از هوش مصنوعی نیز نظارتی است، درست است؟” او ادامه داد می‌دانید، از کنار یک دوربین تشخیص چهره رد می‌شوید که با تشخیص شبه علمی احساسات مجهز شده است، و داده‌هایی درباره شما، درست یا غلط، تولید می‌کند که می‌گوید «شاد هستید، غمگین هستید، شخصیت بدی دارید، شما» اینها در نهایت سیستم های نظارتی هستند که برای کسانی که به طور کلی بر ما قدرت دارند: کارفرمایان ما، دولت ها، کنترل مرزها و غیره عرضه می شوند تا تصمیمات و پیش بینی هایی را اتخاذ کنند که دسترسی ما به منابع و فرصت ها را شکل دهد. ”

او اشاره کرد که از قضا، داده‌هایی که زیربنای این سیستم‌ها هستند، اغلب سازمان‌دهی و حاشیه‌نویسی می‌شوند (گامی ضروری در فرآیند جمع‌آوری داده‌های هوش مصنوعی) توسط همان کارگرانی که می‌توان آن‌ها را هدف قرار داد.

هیچ راهی برای ساختن این سیستم‌ها بدون نیروی انسانی در سطح اطلاع‌رسانی به حقیقت زمینی داده‌ها وجود ندارد – یادگیری تقویتی با بازخورد انسانی، که باز هم نوعی کار ناپایدار انسانی است که با فناوری شستشو می‌دهد. هزاران و هزاران کارگر دستمزد بسیار کمی دریافت می‌کنند، اگرچه به طور انبوه بسیار گران است، و هیچ راه دیگری برای ایجاد این سیستم‌ها وجود ندارد، او توضیح داد. از برخی جهات، چیزی که ما می‌بینیم نوعی پدیده جادوگر شهر اوز است، وقتی پرده را کنار می‌زنیم، چندان هوشمندانه نیست.»

با این حال، همه سیستم‌های هوش مصنوعی و یادگیری ماشین به یک اندازه بهره‌بردار نیستند. وقتی از من پرسیدم که آیا سیگنال از ابزارها یا فرآیندهای هوش مصنوعی در برنامه یا کار توسعه خود استفاده می‌کند، او تأیید کرد که این برنامه یک مدل کوچک روی دستگاه دارد که ما آن را توسعه نداده‌ایم، ما از آن به عنوان بخشی از چهره استفاده می‌کنیم. ویژگی تاری در مجموعه ابزار ویرایش رسانه ما. در واقع آنقدرها هم خوب نیست… اما به تشخیص چهره ها در عکس های جمعیت کمک می کند و آنها را محو می کند، به طوری که وقتی آنها را در رسانه های اجتماعی به اشتراک می گذارید، داده های بیومتریک شخصی افراد را مثلاً برای Clearview فاش نمی کنید.

«اما موضوع اینجاست. مثل… بله، این یک استفاده عالی از هوش مصنوعی است، و آیا ما را از این همه منفی‌هایی که من روی صحنه پرتاب می‌کنم، نادیده نمی‌گیرد.» “مطمئنا، اگر این تنها بازار برای تشخیص چهره بود … اما اجازه دهید واضح بگوییم. انگیزه‌های اقتصادی که فرآیند بسیار پرهزینه توسعه و بکارگیری فناوری تشخیص چهره را هدایت می‌کنند، هرگز اجازه نمی‌دهند که این تنها استفاده باشد.»

منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *