جستجوی NEW SENS و قیمت سهام JSE
اطلاعات بیشتر در مورد برنامه
مدیر محصول سابق فیس بوک ، فرانسیس هاوگن ، در 5 اکتبر 2021 در مجلس سنای آمریکا شهادت داد که شبکه های اجتماعی این شرکت " به کودکان آسیب می رساند ، اختلاف را دامن می زند و دموکراسی ما را تضعیف می کند ."
هاوگن منبع اصلی افشاگری وال استریت ژورنال در مورد این شرکت بود. وی الگوریتم های فیس بوک را خطرناک خواند ، گفت مدیران فیس بوک از این تهدید آگاه هستند اما سود را بر مردم مقدم می دارند و از کنگره خواست تا این شرکت را تنظیم کند.
بسترهای رسانه های اجتماعی برای تصمیم گیری در مورد محتوایی که مشاهده می کنید به شدت بر رفتار افراد متکی هستند. به طور خاص ، آنها مراقب محتوایی هستند که مردم با دوست داشتن ، نظر دادن و به اشتراک گذاشتن به آن پاسخ می دهند یا با آن مشارکت می کنند. مزارع ترول ، سازمان هایی که محتوای تحریک آمیز را منتشر می کنند ، با کپی کردن مطالب با جذابیت بالا و ارسال آن به عنوان خود ، از این امر سوء استفاده می کنند ، که به آنها کمک می کند تا مخاطبان زیادی را جذب کنند.
من به عنوان یک دانشمند رایانه که شیوه های تعامل تعداد زیادی از مردم با استفاده از فناوری را مطالعه می کند ، منطق استفاده از خرد جمعی را در این الگوریتم ها درک می کنم. من همچنین در مورد نحوه عملکرد شرکت های رسانه های اجتماعی در عمل ، اشکالات مهمی می بینم.

از شیرهای ساوانا گرفته تا لایک در فیس بوک

مفهوم خرد جمعی فرض می کند که استفاده از سیگنال های اعمال ، نظرات و ترجیحات دیگران به عنوان راهنما منجر به تصمیم گیری های درست می شود. به عنوان مثال ،پیش بینی های جمعی به طور معمول دقیق تر از پیش بینی های فردی هستند. از اطلاعات جمعی برای پیش بینی بازارهای مالی ، ورزش ، انتخابات و حتی شیوع بیماری استفاده می شود .
در طول میلیون ها سال تکامل ، این اصول در مغز انسان در قالب سوگیری های شناختی کدگذاری شده است که با نام هایی مانند آشنایی ، قرار گرفتن در معرض صرف و اثر بین راه همراه است . اگر همه شروع به دویدن کردند ، شما نیز باید دویدن را شروع کنید. شاید کسی دید که یک شیر می آید و می دود می تواند زندگی شما را نجات دهد. شاید دلیل آن را ندانید ، اما عاقلانه است که بعداً س questionsالات خود را مطرح کنید.
مغز شما سرنخ هایی از محیط – از جمله همسالان شما – دریافت می کند و از قوانین ساده ای استفاده می کند تا سریعاً این سیگنال ها را به تصمیم تبدیل کند: با برنده بروید ، اکثریت را دنبال کنید ، همسایه خود را کپی کنید. این قوانین به طور قابل ملاحظه ای در شرایط معمولی کار می کنند ، زیرا بر اساس مفروضات درست است. به عنوان مثال ، آنها فرض می کنند که مردم اغلب منطقی عمل می کنند ، بعید است که بسیاری اشتباه کنند ، گذشته آینده را پیش بینی می کند و غیره.
فناوری به مردم اجازه می دهد تا به سیگنال های تعداد بسیار بیشتری از افراد دیگر ، که بیشتر آنها را نمی شناسند ، دسترسی پیدا کنند. کاربردهای هوش مصنوعی از این سیگنال های محبوبیت یا "تعامل" استفاده می کنند ، از انتخاب نتایج موتورهای جستجو گرفته تا توصیه موسیقی و فیلم ها ، و از پیشنهاد دوستان تا رتبه بندی پست ها در فیدهای خبری.

همه چیز ویروسی سزاوار نیست

تحقیقات ما نشان می دهد که تقریباً همه سیستم عامل های فناوری وب ، مانند رسانه های اجتماعی و سیستم های توصیه خبری ، دارای سوگیری محبوبیت قوی هستند. هنگامی که برنامه های کاربردی به جای درخواست های صریح موتورهای جستجو از نشانه هایی مانند تعامل استفاده می کنند ، سوگیری از محبوبیت می تواند منجر به عواقب ناخواسته مضر شود.
رسانه های اجتماعی مانند فیس بوک ، اینستاگرام ، توییتر ، یوتیوب و TikTok برای رتبه بندی و توصیه محتوا به الگوریتم های هوش مصنوعی وابسته هستند. این الگوریتم ها مطالبی را که دوست دارید ، نظر می دهید و به اشتراک می گذارید – به عبارت دیگر ، محتوایی که با آن درگیر هستید ، به عنوان ورودی در نظر می گیرند. هدف از الگوریتم ها این است که تعامل را با پیدا کردن آنچه مردم دوست دارند به حداکثر برسانند و آن را در بالای خوراک خود قرار دهند.
در ظاهر این منطقی به نظر می رسد. اگر مردم اخبار معتبر ، نظرات متخصصان و فیلم های سرگرم کننده را دوست دارند ، این الگوریتم ها باید محتوای با کیفیت بالا را شناسایی کنند. اما عقل جمعیت در اینجا یک فرض کلیدی را مطرح می کند: توصیه به آنچه محبوب است به محتوای باکیفیت "حباب" کمک می کند.
ما با مطالعه الگوریتمی که موارد را با استفاده از ترکیبی از کیفیت و محبوبیت رتبه بندی می کند ، این فرض را آزمایش کردیم. ما دریافتیم که به طور کلی ، سوگیری از محبوبیت بیشتر باعث کاهش کیفیت کلی محتوا می شود. دلیل این است که وقتی افراد کمی در معرض یک مورد قرار گرفته اند ، مشارکت شاخص قابل اعتماد کیفیت نیست. در این موارد ، درگیری سیگنال پر سر و صدا تولید می کند و الگوریتم احتمالاً این نویز اولیه را تقویت می کند. هنگامی که محبوبیت یک محصول با کیفیت پایین به اندازه کافی بزرگ شد ، همچنان تقویت می شود.
الگوریتم ها تنها چیزی نیستند که تحت تأثیر سوگیری مشارکت قرار می گیرند – می توانند افراد را نیز تحت تأثیر قرار دهند. شواهد نشان می دهد که اطلاعات از طریق " سرایت پیچیده " منتقل می شود ، بدین معنا که هر چقدر بیشتر افراد در معرض ایده ای آنلاین قرار بگیرند ، احتمال پذیرش و اشتراک گذاری مجدد آنها بیشتر می شود. وقتی رسانه های اجتماعی به مردم می گویند یک مورد ویروسی می شود ، سوگیری های شناختی آنها شروع می شود و به تمایل غیرقابل مقاومت برای توجه به آن و به اشتراک گذاری آن تبدیل می شود.

جمعیت نه چندان عاقل

ما اخیراً آزمایشی را با استفاده از یک برنامه سواد خبری به نام Fakey انجام دادیم . این یک بازی است که توسط آزمایشگاه ما توسعه داده شده و شبیه سازی یک خبر مانند فیس بوک و توییتر است. بازیکنان ترکیبی از مقالات فعلی از اخبار جعلی ، علوم ناخواسته ، منابع فرا حزبی و توطئه گر ، و همچنین منابع اصلی را مشاهده می کنند. آنها برای به اشتراک گذاری یا پسندیدن اخبار از منابع معتبر و علامت گذاری مقالات با اعتبار کم برای بررسی واقعیت ، امتیاز دریافت می کنند.
ما دریافتیم که بازیکنان بیشتر دوست دارند یا به اشتراک می گذارند و کمتر احتمال دارد مقاله ها را از منابع با اعتبار پایین پرچم گذاری کنند وقتی بازیکنان متوجه شوند که بسیاری از کاربران دیگر با آن مقالات درگیر شده اند. بنابراین قرار گرفتن در معرض معیارهای تعامل ، آسیب پذیری ایجاد می کند.

خرد جمعیت شکست می خورد زیرا بر این فرض غلط استوار است که جمعیت از منابع متنوع و مستقل تشکیل شده است. ممکن است دلایل مختلفی وجود داشته باشد که چنین نیست.
اول ، به دلیل گرایش افراد به معاشرت با افراد مشابه ، محله های آنلاین آنها بسیار متنوع نیست. سهولت استفاده از شبکه های اجتماعی با افرادی که با آنها مخالف هستند ، مردم را به سمت اجتماعات همگن سوق می دهد ، که اغلب به آنها اتاق های اکو می گویند.
دوم ، از آنجا که دوستان بسیاری از مردم دوست یکدیگر هستند ، بر یکدیگر تأثیر می گذارند. یک آزمایش مشهور نشان داد که دانستن اینکه موسیقی دوستان شما چه دوست دارند بر ترجیحات اعلام شده شما تأثیر می گذارد. میل اجتماعی شما برای سازگاری قضاوت مستقل شما را مخدوش می کند.
سوم ، می توان سیگنال های محبوبیت را بازی کرد. در طول سالها ، موتورهای جستجو تکنیک های پیچیده ای را برای مقابله با اصطلاح " مزرعه پیوند " و طرح های دیگر برای دستکاری الگوریتم های جستجو ایجاد کرده اند. از سوی دیگر ، شبکه های اجتماعی تازه در حال یادگیری آسیب پذیری های خود هستند.
افرادی که قصد دستکاری در بازار اطلاعات را دارند ، حساب های جعلی مانند ترول ها و ربات های اجتماعی ایجاد کرده اند و شبکه های جعلی را سازماندهی کرده اند . آنها شبکه را فرا گرفته اند تا این ظاهر را به وجود آورند که یک نظریه توطئه یا نامزد سیاسی رایج است و هم الگوریتم های پلتفرم و هم سوگیری های شناختی افراد را فریب داده است. آنها حتی ساختار شبکه های اجتماعی را برای ایجاد توهم در مورد نظرات اکثریت تغییر داده اند .

شماره گیری نامزدی

چه باید کرد؟ سیستم عامل های فناوری در حال حاضر در حالت دفاعی هستند. آنها در طول انتخابات با حذف حساب های جعلی و اطلاعات غلط مضر ، تهاجمی تر می شوند. اما این تلاش ها می تواند شبیه به یک بازی whack-a-mole باشد.
یک روش پیشگیرانه متفاوت ، افزودن اصطکاک خواهد بود. به عبارت دیگر ، کاهش سرعت انتشار اطلاعات. رفتارهای با فرکانس بالا مانند دوست داشتن خودکار و اشتراک گذاری را می توان با آزمایش CAPTCHA ، که نیاز به پاسخگویی به انسان دارد یا هزینه پرداخت ، مهار کرد. این امر نه تنها فرصت دستکاری را کاهش می دهد ، بلکه با اطلاعات کمتر مردم می توانند به آنچه می بینند بیشتر توجه کنند. این می تواند فضای کمتری برای تعصب تعامل ایجاد کند تا بر تصمیمات مردم تأثیر بگذارد.
همچنین اگر شرکت های رسانه های اجتماعی الگوریتم های خود را طوری تنظیم کنند که کمتر به سیگنال های تعامل و بیشتر به سیگنال های با کیفیت تکیه کنند تا محتوایی را که به شما ارائه می دهند ، تعیین کنند. شاید افشاگری های افشا کننده انگیزه لازم را ایجاد کند.
این نسخه به روز شده مقاله ای است که در ابتدا در 20 سپتامبر 2021 منتشر شده است . گفتگو
فیلیپو منچرز ، لادی استاد ممتاز انفورماتیک و علوم کامپیوتر ، دانشگاه ایندیانا
این مقاله تحت مجوز Creative Commons از The Conversation بازنشر شده است. مقاله اصلی را بخوانید .
SIGN IN ثبت نام
افشاگر فرانسیس هاگن گواهی داد که الگوریتم های شرکت خطرناک هستند.




source

توسط خبرساز