چگونه بازتابهای خنجری در اسرائیل از طریق مبارزه برای گفتار آنلاین است


واشنگتن – استوارت فورس می گوید پس از آنكه پسرش در اسرائیل توسط یكی از اعضای گروه شبه نظامی حماس در سال 2016 با ضربات چاقو كشته شد ، در فیس بوك آرامش یافت. او به سایت مراجعه كرد تا صدها پیام تسلیت فرزند خود را بخواند.

اما تنها چند ماه بعد ، آقای فورس تصمیم گرفت كه مقصر مقصر فیس بوك باشد ، زیرا الگوریتم هایی كه این شبکه اجتماعی را هدایت می كنند ، به گسترش محتوای حماس كمك كردند. او در دادخواست علیه این شرکت به بستگان سایر قربانیان ترور پیوست و استدلال کرد که الگوریتم های آن با تقویت منظم پست هایی که موجب حملات تروریستی می شوند ، به جرایم کمک می کنند.

این دادخواست سال گذشته هنگامی که دیوان عالی کشور از رسیدگی به آن خودداری کرد ، ناموفق پایان یافت. اما بحث در مورد قدرت الگوریتم ها در واشنگتن بازتاب یافت ، جایی که برخی از اعضای کنگره در یک بحث شدید در مورد قانونی که شرکت های فناوری را از مسئولیت محتوای ارسال شده توسط کاربران محافظت می کند ، به این پرونده استناد کردند.

انتظار می رود در جریان جلسه استماع مجلس در زمینه انتشار اطلاعات نادرست با مدیران ارشد در فیس بوک ، توییتر و گوگل ، برخی نمایندگان مجلس بر نحوه نوشتن الگوریتم های شرکت ها برای ایجاد درآمد با نمایش پست هایی که کاربران تمایل دارند کلیک کرده و به آنها پاسخ دهند ، تمرکز کنند. و برخی معتقدند که قانونی که از رسانه های اجتماعی در برابر مسئولیت محافظت می کند ، بخش 230 قانون شایستگی ارتباطات ، باید اصلاح شود تا شرکتها وقتی نرم افزارهایشان خدمات پلت فرم را به همدستی در جرایم غیرفعال تبدیل می کند ، پاسخگو باشند.

فرانک پالون جونیور ، رئیس کمیته انرژی و تجارت ، که مدیران ارشد را زیر سال خواهد برد ، گفت: “چند سال گذشته نشان داده است که هرچه محتوای رسوایی و افراط گرایی در سیستم عامل های شبکه های اجتماعی تبلیغ شود ، میزان تعامل و تبلیغات بیشتر است.”

“تاکنون ، به طرز دردناکی روشن شده است که نه بازار و نه فشار عمومی مانع از ایجاد اطلاعات غلط و افراط گرایی توسط شرکت های رسانه های اجتماعی نمی شود ، بنابراین ما چاره ای جز تصویب قانون نداریم و اکنون سوال این است که چگونه بهترین کار را انجام دهیم.” ، آقای پالون ، یک دموکرات از نیوجرسی ، اضافه کرد.

رئیس جمهور سابق دونالد جی ترامپ خواستار لغو بند 230 شد و رئیس جمهور بایدن هنگام تبلیغات خود برای کاخ سفید اظهار نظری مشابه کرد. اما به نظر می رسد این لغو به طور فزاینده ای مشکوک باشد ، و قانونگذاران بر تغییرات کوچکتر ممکن در قانون تمرکز کرده اند.

اصلاح سپر قانونی برای در نظر گرفتن قدرت الگوریتم ها می تواند شبکه را دوباره طراحی کند ، زیرا مرتب سازی ، پیشنهاد و توزیع الگوریتمی در شبکه های اجتماعی معمول است. این سیستم ها تصمیم می گیرند که کدام پیوندها ابتدا در News News Feed نشان داده شوند ، کدام حساب ها در Instagram به کاربران توصیه می شود و سپس کدام ویدیوها در YouTube پخش می شود.

صنعت ، فعالان آزادی بیان و سایر حامیان سپر حقوقی استدلال می کنند که الگوریتم های شبکه های اجتماعی بدون در نظر گرفتن پیام از انتشارات به همان اندازه استفاده می کنند. آنها می گویند الگوریتم ها فقط به دلیل محتوای ارائه شده توسط کاربران کار می کنند و بنابراین تحت بخش 230 قرار دارند که از سایت های میزبان پست ها ، عکس ها و فیلم های افراد محافظت می کند.

دادگاه ها موافقت کردند. یک قاضی منطقه فدرال گفت که حتی “سخاوتمندانه ترین قرائت” ادعاهای آقای فورس “آنها را” در برابر مصونیت مصونیت داده شده برای سیستم عامل های تحت قانون قرار می دهد.

سخنگوی فیس بوک از اظهار نظر در مورد این موضوع خودداری کرد ، اما در مورد مدیر عامل آن مارک زاکربرگ اظهار نظر کرد و از برخی تغییرات در بخش 230 حمایت کرد. النا هرناندز ، سخنگوی YouTube متعلق به گوگل ، گفت این سرویس تغییراتی در “الگوریتم های جستجو و کشف آن به اطمینان حاصل کنید که محتوای معتبر بیشتری در نتایج جستجو و توصیه ها در مکانی برجسته نشان داده شده و علامت گذاری شده است. “

توییتر خاطرنشان کرد که پیشنهاد داده است کاربران بیشتری نسبت به الگوریتم هایی که مهلت آنها را رتبه بندی می کند ، انتخاب کنند.

لورن کالبرتسون ، رئیس سیاست عمومی ایالات متحده در توییتر ، گفت: “الگوریتم ها عناصر اصلی خدمات اینترنت ، از جمله توییتر هستند.” “این آیین نامه باید واقعیت چگونگی کارکرد خدمات مختلف و رتبه بندی و تقویت محتوا را منعکس کند ، در حالی که رقابت را به حداکثر می رساند و ایمنی و بیان آزاد را متعادل می کند.”

اعتبار …آکادمی نظامی آمریکا از طریق آسوشیتدپرس

دادگاه آقای فورس در مارس 2016 آغاز شد ، زمانی که پسرش تیلور فورس 28 ساله توسط بشار ماسالها هنگام شام خوردن با همکلاسی ها در دبیرستانی در یافا ، شهر بندری اسرائیل ، کشته شد. حماس ، یک گروه فلسطینی ، گفت که ماسالیای 22 ساله عضو آن بوده است.

در ماه های بعد ، استوارت فورس و همسرش رابی برای بازسازی املاک پسرش و تمیز کردن آپارتمان او کار کردند. در تابستان امسال ، یک گروه دادگاه اسرائیل با آنها تماس گرفت که سوالی داشتند: آیا خانواده سیل می خواهند از فیس بوک شکایت کنند؟

آقای فورس پس از مدتی گذراندن در صفحه فیس بوک متعلق به حماس ، موافقت کرد که از این پرونده شکایت کند. این پرونده بخشی از تلاش گسترده گروه فلسطینی برای محدود کردن منابع و ابزار موجود است. آقای فورس و همسرش برای تصویب قوانینی که محدودیت کمک به تشکیلات خودگردان فلسطین را که بخشی از کرانه باختری را اداره می کند ، با نمایندگان در واشنگتن متحد کرده اند.

وکلای آنها در دادگاه ایالات متحده ادعا می کنند که فیس بوک “الگوریتمی کاملاً پیشرفته و پیشرفته را در اختیار حماس قرار داده است که توانایی حماس را برای دستیابی به مخاطب و درگیر کردن آن با مخاطب تسهیل می کند که در غیر اینصورت نمی تواند به همان اندازه موثر باشد.” در این دادخواست گفته شده است که الگوریتم های فیس بوک نه تنها پست ها را افزایش می دهد ، بلکه با توصیه گروه ها ، دوستان و رویدادها به کاربران ، به حماس کمک می کند.

قاضی منطقه فدرال در نیویورک با استناد به بخش 230 ، در مورد این پرونده ها رأی داد. وكلا از خانواده فورس برای دور دوم به دادگاه تجدیدنظر آمریكا مراجعه كردند و دو نفر از قضات كاملاً در فیس بوك رای صادر كردند. دیگری ، قاضی رابرت کاتزمن ، 35 صفحه با بخشی از این تصمیم مخالفت نوشت و استدلال کرد که توصیه های الگوریتمی فیس بوک نباید تحت حمایت قانونی قرار گیرد.

وی گفت: “جمع آوری شواهد نشان می دهد که ارائه دهندگان الگوریتم های خود را برای هدایت مصرف کنندگان به سمت محتوا و افرادی که با آنها توافق کرده اند طراحی کرده اند – و آنها خیلی خوب عمل کرده اند ، و روحیه های آسیب پذیر را به مسیرهای تاریک سوق می دهند.”

در اواخر سال گذشته ، دادگاه عالی درخواست دیگری را که به بررسی سپر ماده 230 می پرداخت را رد کرد. قاضی کلارنس توماس در بیانیه ای که به حکم دادگاه پیوست شد ، از دادگاه خواست که آیا حفاظت از بند 230 بیش از حد تمدید شده است ، به ادعای آقای فورس و نظر قاضی کاتزمن اشاره کرد.

قاضی توماس گفت دادگاه نباید در حال حاضر در مورد حفظ حمایت قانونی تصمیم می گرفت. وی گفت: “اما در صورت لزوم ، این به ما نیاز دارد.”

برخی از قانون گذاران ، حقوقدانان و دانشمندان می گویند به رسمیت شناختن قدرت الگوریتم های شبکه های اجتماعی در تعیین آنچه مردم می بینند بسیار دیر است. معمولاً سکوها مشخص نمی کنند که الگوریتم ها از چه عواملی برای تصمیم گیری استفاده می کنند و چگونه درمقابل یکدیگر قضاوت می شوند.

اولیویه سیلوین ، استاد حقوق دانشگاه فوردهام ، که در متن حقوق مدنی استدلال کرد ، گفت: “سیستم های تقویت و تصمیم گیری خودکار ، فرصت های ارتباطی را ایجاد می کنند که در غیر این صورت غیرممکن است.” “آنها به طور قابل توجهی به محتوا کمک می کنند.”

این استدلال در یک سلسله دعاوی ظاهر شده است که فیس بوک باید مسئول تبعیض در مسکن باشد ، زمانی که سیستم عامل می تواند تبلیغات را بر اساس نژاد کاربر هدف قرار دهد. لایحه ای که توسط یوت دی کلارک ، نماینده دموکرات از نیویورک ، نماینده مجلس تهیه شده است ، بخش 230 را از مصونیت از تبلیغات هدفمند که ناقض قوانین حقوق مدنی است ، سلب می کند.

لایحه ای که سال گذشته توسط تام مالینوفسکی از نیوجرسی و آنا جی یشو از كالیفرنیا ، هر دو دموكرات ارائه شد ، هنگامی كه الگوریتم های آنها محتوایی را كه برخی از قوانین ضد تروریسم و ​​حقوق مدنی را نقض می كند ، تقویت می كنند ، محافظت از بخش 230 از سیستم عامل های رسانه های اجتماعی را از بین می برد. در یک خبر انتشار این لایحه ، که روز چهارشنبه مجدداً معرفی خواهد شد ، به نقل از دادخواست خانواده سیل علیه فیس بوک ارائه شده است. آقای مالینوفسکی گفت که تا حدی از اختلاف قاضی کاتزمن الهام گرفته است.

منتقدان این قانون می گویند که این قانون می تواند اصلاحیه اول را نقض کند و از آنجا که الگوریتم های زیادی در وب وجود دارد ، می تواند طیف وسیعی از خدمات را از آنچه قانونگذاران در نظر گرفته اند ، پوشش دهد. آنها همچنین می گویند که یک مشکل اساسی وجود دارد: تنظیم سود الگوریتمی از وجود ، انگیزه های آن را حذف نمی کند.

دافنه کلر ، مدیر برنامه سیستم های سایبرپولیتیک دانشگاه استنفورد ، گفت: “چیزی وجود دارد که نمی توانید از آن بیرون بیایید ،” این تقاضای مردم برای محتوای ناخواسته است.


منبع: rah-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>