یک محقق گوگل می گوید که وی به دلیل تعصب هایی که زیر مقاله مقاله AI است ، اخراج شد


یک محقق محترم گوگل گفت که وی پس از انتقاد از روش خود برای استخدام اقلیت ها و سوگیری تعبیه شده در سیستم های هوش مصنوعی امروز ، از شرکت اخراج شد.

Timnit Gebru ، که به عنوان سرپرست تیم هوش مصنوعی اخلاقی گوگل همکاری می کرد ، در این باره گفت توییت کردن چهارشنبه شب که او به دلیل ایمیلی که روز قبل برای گروهی که شامل کارمندان شرکت بود ، اخراج شده بود.

وی در ایمیلی که توسط نیویورک تایمز بررسی شد ، از پاسخ گوگل به تلاش خود و سایر کارمندان برای افزایش اشتغال اقلیت و تمرکز بر تعصب هوش مصنوعی ابراز خشم کرد.

“زندگی شما شروع به بدتر شدن می کند وقتی که شروع به تبلیغ برای افراد کم نماینده می کنید. شما شروع به ناراحتی رهبران دیگر کرده اید. ” “هیچ راهی وجود ندارد که اسناد یا مکالمات بیشتر بتوانند به نتیجه برسند.”

جدایی وی از گوگل ، تنش فزاینده بین نیروی کار گوگل و مدیران ارشد قفل شده آن را تأکید می کند ، در حالی که نگرانی در مورد تلاش های این شرکت برای ساخت یک فناوری صادقانه و قابل اعتماد را افزایش می دهد. این امر همچنین می تواند بر روی کارگران فناوری سیاه پوست و محققانی که در سال های اخیر دانشگاه را به دلیل مشاغل پردرآمد در دره سیلیکون ترک کرده اند ، تأثیر مهمی بگذارد.

موتال نکوند ، همکار آزمایشگاه جامعه مدنی دیجیتال استنفورد گفت: “راه اندازی آن فقط نشان می دهد دانشمندان ، فعالان و دانشمندانی که می خواهند در این زمینه کار کنند – و زنان سیاه پوستی هستند – در دره سیلیکون استقبال نمی کنند.” “بسیار ناامید کننده است.”

سخنگوی گوگل از اظهار نظر در این باره خودداری کرد. در نامه ای به کارمندان گوگل ، جف دین ، ​​که ناظر بر کار گوگل در زمینه هوش مصنوعی ، از جمله دکتر دکتر گبرو و تیمش است ، عزیمت وی ​​را “یک زمان دشوار” خواند ، به ویژه با توجه به مباحث مهم پژوهشی درگیر ، و چقدر ما به عنوان یک سازمان و به عنوان یک شرکت تحقیقاتی درمورد هوش مصنوعی مسئول هستیم “

پس از سالها هر محیطی که کارمندان در جلسات شرکت و تابلوهای اعلانات آنلاین به بحث و گفتگو آزاد می پرداختند ، گوگل شروع به بحث در محل کار خود کرد. بسیاری از کارمندان Google از محدودیت های جدید به لرزه می افتند و می گویند این شرکت از سنت شفافیت و بحث آزاد جدا شده است.

روز چهارشنبه ، شورای ملی کار گفت که گوگل هنگام اخراج دو کارمند درگیر در سازماندهی کار ، به احتمال زیاد قوانین کار را نقض کرده است. آژانس فدرال گفت گوگل قبل از اخراج کارمندان ، آنها را به طور غیرقانونی تحت نظارت قرار می دهد.

مبارزات گوگل با کارمندان خود ، که در سال های اخیر در مورد رفتار این شرکت در برابر آزار و اذیت جنسی و کار آن با وزارت دفاع و آژانس های مرزی فدرال صحبت کرده اند ، از شهرت آن به عنوان یک مدینه فاضله برای تکنسین های با حقوق ، امتیازات و آزادی سخاوتمندانه در محل کار کاسته است. .

مانند دیگر شرکت های فناوری ، گوگل نیز مورد انتقاد قرار گرفته است زیرا در زمینه رفع کمبود زنان و اقلیت های نژادی در صفوف خود اقدامات کافی انجام نداده است.

مشکلات نابرابری نژادی ، به ویژه بدرفتاری با کارمندان سیاه پوست در شرکت های فناوری ، سال هاست که دره سیلیکون را آزار می دهد. Coinbase ، با ارزش ترین استارت آپ ارز رمزپایه ، در دو سال گذشته اخراج کارمندان سیاهپوست را به دلیل آنچه کارگران می گویند نژاد پرستانه و تبعیض آمیز است ، تجربه کرده است.

محققان نگران این هستند که افرادی که سیستم های هوش مصنوعی می سازند ممکن است اعتیاد خود را به فناوری ایجاد کنند. در چند سال گذشته ، چندین آزمایش عمومی نشان داده است که سیستم ها غالباً با افراد رنگی تعامل متفاوتی دارند – شاید به این دلیل است که در بین توسعه دهندگانی که این سیستم ها را ایجاد می کنند ، کمتر نمایان می شوند.

دکتر گبرو 37 ساله در اتیوپی متولد و بزرگ شده است. در سال 2018 ، وی در حالی که یک محقق در دانشگاه استنفورد بود ، به نوشتن مقاله ای کمک کرد که به عنوان نقطه عطفی در تلاش برای شناسایی و از بین بردن تعصب در هوش مصنوعی تلقی می شود. در اواخر همان سال ، او به Google پیوست و در ساخت تیم هوش مصنوعی اخلاقی کمک کرد.

پس از استخدام محققانی مانند دکتر گبرو ، گوگل به عنوان شرکتی اختصاص داده شده به هوش مصنوعی “اخلاقی” ظاهر شده است ، اما اغلب تمایلی به پذیرش علنی نقایص سیستم های خود ندارد.

دکتر گبرو در مصاحبه ای با تایمز گفت که تحریک او ناشی از نگرش این شرکت نسبت به مقاله تحقیقاتی است که وی با شش محقق دیگر نوشته بود ، چهار نفر از آنها در Google. این سند که توسط تایمز نیز مورد بررسی قرار گرفت ، اشکالاتی در نژاد جدید فن آوری زبان پیدا کرد ، از جمله سیستمی که توسط گوگل ساخته شده و موتور جستجوی این شرکت را پایه ریزی می کند.

این سیستم ها با تجزیه و تحلیل مقادیر زیادی از متن ، از جمله هزاران کتاب ، مدخل های ویکی پدیا ، و سایر اسناد آنلاین ، ناخوشایند های زبان را مطالعه می کنند. از آنجا که این متن شامل زبانی مغرضانه و گاه منفور است ، در نهایت فناوری می تواند زبانی مغرضانه و منفور ایجاد کند.

دکتر گبرو گفت ، پس از آنکه وی و سایر محققان مقاله را به یک کنفرانس دانشگاهی ارسال کردند ، یک مدیر گوگل از وی خواست که مقاله را از کنفرانس خارج کند یا نام سایر کارمندان Google را حذف کند. وی بدون بحث بیشتر از این کار امتناع ورزید و در ایمیلی که سه شنبه شب ارسال شد ، گفت اگر شرکت نتواند توضیح دهد که چرا می خواهد مقاله را پس بگیرد و سایر نگرانی ها را برطرف کند ، پس از یک دوره زمانی مناسب استعفا می دهد.

وی گفت كه این شركت به ایمیل وی پاسخ داده و گفته است كه نمی تواند به خواسته های او پاسخ دهد و استعفای وی بلافاصله پذیرفته شد. دسترسی وی به ایمیل شرکت و سایر خدمات بلافاصله لغو شد.

آقای دین در یادداشتی خطاب به کارمندان گفت که گوگل به “تصمیم خود برای استعفا” احترام می گذارد. آقای دین همچنین گفت که این مقاله تحقیقات اخیر را نشان نمی دهد که راه های کاهش تعصب در چنین سیستم هایی را نشان می دهد.

دکتر گبرو گفت: “این غیرانسانی بود.” “آنها ممکن است دلایلی برای توقف مطالعه ما داشته باشند. اما ناامیدکننده ترین چیز این است که آنها از بحث درمورد دلیل خودداری می کنند. “

جدایی دکتر گبرو از گوگل در حالی صورت می گیرد که فناوری هوش مصنوعی تقریباً در هر جنبه از تجارت Google نقش بیشتری دارد. این شرکت از دستیار فعال شده صوتی دیجیتال خود گرفته تا تبلیغات تجاری خودکار ، آینده خود را با هوش مصنوعی به عنوان دستیابی به موفقیت در فناوری اطلاعات و هوشمند سازی نسل بعدی خدمات و دستگاه ها پیوند داده است.

Sundar Pichai ، مدیرعامل Alphabet ، شرکت مادر گوگل ، ظهور هوش مصنوعی را با برق یا آتش سوزی مقایسه کرد و گفت که این امر برای آینده شرکت و رایانه های آن ضروری است. در اوایل سال جاری ، آقای پیچای خواستار تنظیم بیشتر و مدیریت مسئولیت پذیر هوش مصنوعی شد و اظهار داشت که جامعه باید آسیب های احتمالی و فرصت های جدید را متعادل کند.

گوگل بارها و بارها متعهد به حذف سوگیری در سیستم های خود شده است. دکتر گبرو گفت ، این مشکل این است که بیشتر افرادی که تصمیمات نهایی را می گیرند مرد هستند. وی گفت: “آنها نه تنها در اولویت بندی استخدام افراد بیشتر از جوامع اقلیت نیستند ، بلكه صدای آنها را آرام می كنند.”

جولین کورنبیز ، دانشیار افتخاری دانشگاه کالج لندن و محقق سابق DeepMind ، یک آزمایشگاه برجسته هوش مصنوعی متعلق به همان شرکت مادر با گوگل ، در میان بسیاری از محققان هوش مصنوعی بود که گفت: خروج دکتر گبرو منعکس کننده است بزرگترین مشکل در صنعت.

وی گفت: “این نشان می دهد که چگونه برخی از شرکت های بزرگ فناوری فقط از اخلاق و عدالت و سایر دلایل هوش مصنوعی به نفع جامعه حمایت می کنند ، به شرطی که تأثیر روابط عمومی مثبت آنها بیش از کنترل اضافی باشد که آنها ایجاد می کنند.” “تیمنیت یک محقق درخشان است. ما در زمینه کاری خود بیشتر به او شباهت داریم. “




منبع: rah-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>