آیا سئوکاران مسئول تعصبات جستجوی گوگل هستند؟


در سال 2016، سازمان ملل متحد اعلام کرد که دسترسی به اینترنت یک حق بشر است.

این تصمیم با این درک گرفته شد که اینترنت ابزاری است برای همه برای دسترسی مقرون به صرفه به اطلاعات و ابراز وجود.

این قطعنامه بحث در مورد دسترسی از نظر زیرساخت را برانگیخت، جایی که کابل‌های فیبر نصب یا به‌روزرسانی می‌شوند، یا امکان دسترسی بدون وقفه در هنگام ناآرامی‌های داخلی و سایر موارد اضطراری فراهم می‌شود.

در حالی که اینها نکات معتبر و مهمی هستند، اینترنت فقط سیم و صفحه نمایش نیست و اطلاعات به دست آمده را می توان بر اساس الگوریتم ها تغییر داد.

همانطور که اینترنت در زندگی ما ادغام شده است، اکنون بخشی از زیرساخت های اجتماعی ما (شبیه خدمات پزشکی یا آموزشی) است.

به خوبی مستند شده است که سوگیری ها در فضاهای پزشکی و آموزشی از جمله دسترسی به مراقبت و کیفیت مراقبت وجود دارد، اما نتایج جستجو چطور؟

آیا آنها منصف هستند؟ آیا آنها نماینده دنیای اطراف ما هستند؟ یا بیشتر ضرر دارند تا فایده؟

در یک الگوریتم چیست؟

در دیجیتال مارکتینگ، «الگوریتم» اصطلاحی است که هر روز بدون توجه به اینکه کسی معنی آن را می‌فهمد، مطرح می‌شود. هر پلتفرم یک (یا چندین) دارد و وظیفه ما این است که سعی کنیم آنها را راضی کنیم.

الگوریتم روشی است که زمانی که یک سیستم در حال انجام محاسبات است دنبال می شود.

این فرآیند یک ورودی می گیرد و از فرمول ها، قوانین یا سایر عملیات حل مسئله برای تولید خروجی استفاده می کند.

برای جستجو، این بدان معناست که پرس و جوهای وارد شده در جعبه جستجو ورودی هستند و SERP (صفحه نتایج موتور جستجو) خروجی است.

این یک توضیح بسیار ساده از آنچه در حال وقوع است است. گوگل از چندین الگوریتم در ترکیب با هوش مصنوعی (هوش مصنوعی) و یادگیری ماشینی استفاده می کند.

تشریح کل سیستم بسیار فراتر از محدوده من و فراتر از هدف این مقاله خواهد بود.

قناری در SERP ها

من به عنوان یک زن، با سوگیری ها در وب سایت ها، سیاست ها و به طور کلی جامعه بیگانه نیستم.

هر روز با کمی نمک در جهان گشت و گذار می کنم. بررسی سوگیری های بالقوه در نتایج جستجو چیزی است که مدتی است به آن علاقه مند بودم و از سال 2021 شروع به تحقیق در مورد این موضوع کردم.

یک پروژه تحقیقاتی اصلی (افشای کامل: که من به انجام آن کمک کردم) به نام ویژگی‌ها را به ما بدهید، نه گل‌ها، تعصب جنسیتی در چشم‌انداز اجتماعی و جستجو را برای عکاسان حرفه‌ای بررسی کرد.

چندین پرس‌و‌جوی بی‌نظیر از نظر جنسیتی، مانند «اکانت‌های اینستاگرام بهترین عکاسی» یا «بهترین عکاسان» مورد آزمایش قرار گرفتند.

نتایج؟

زنان به‌عنوان عکاس حرفه‌ای بسیار کمتر از مردان در نتایج غنی و در محتوای صفحه یک، علیرغم تشکیل 50 درصد از افراد حرفه‌ای، معرفی شدند.

چه کسی مسئول این تعصبات است؟ نویسندگانی که مقالات را نوشتند؟ موتورهای جستجو برای پاداش دادن به آن صفحات؟ طرفداران سئو برای توصیه مقاله به مشتری خود؟

واکنش درونی من مقصر دانستن کسی است که الگوریتم را ایجاد کرده است.

اگرچه این تا حدی درست است، اما تمام داستان نیست و به سادگی منصفانه نیست.

تعصبات ریشه در ساختارهای اجتماعی موجود ما دارد که در فرهنگ، دولت و تعاملات ما با دنیای اطراف ما تنیده شده است.

آیا الگوریتم رتبه صفحه بایاس است؟

تحقیقات منتشر شده در سال 2011 قبلاً عادلانه بودن رتبه صفحه را زیر سوال برده است.

مدل‌ها نشان می‌دهند که با رشد وب، پایداری وب‌سایت‌های با رتبه برتر پایدارتر می‌شود و وب‌سایت‌های باقی‌مانده را برای بحث در مورد ضایعات باقی می‌گذارد.

Nature، یک مجله با داوری، مقاله ای را در فوریه 2022 منتشر کرد که در آن الگوریتم PageRank را بررسی کرد تا ببیند آیا تعصبات را معرفی می کند یا تقویت می کند.

برای بیان ساده‌ترین عبارت، محققان پنج مدل اجتماعی بالقوه با درجات مختلف هم‌وفیلی (“تمایل به ارتباط با دیگران مشابه”) ایجاد کردند.

هر مدل شامل 20 گره است، اما بیایید به آنها به عنوان وب سایت اشاره کنیم. سپس به هر وب سایت یک رتبه صفحه و به عنوان بخشی از اکثریت یا اقلیت در جامعه اختصاص داده شد.

نابرابری با استفاده از ضریب جینی (تحلیل آماری برای اندازه‌گیری نابرابری) اندازه‌گیری شد تا ببینیم چگونه یک فرد در برابر توزیع برابر امتیاز می‌گیرد. نابرابری با محاسبه درصد اقلیت ها در نتایج جستجوی برتر اندازه گیری شد.

یافته‌های آنها نشان می‌دهد که الگوریتم PageRank می‌تواند تعصب‌ها را کاهش، تکرار یا تقویت کند، بسته به مدل مورد استفاده.

در مدل‌هایی که درجه بالایی از همجنس‌گرایی داشتند، صداهای مسلط آن دیدگاه‌ها و سوگیری‌ها را در حالی که کمتر اقلیت‌ها را نمایندگی می‌کردند، تداوم بخشیدند.

از سوی دیگر، هنگامی که گروه اکثریت هتروفیل هستند (تمایل به جمع آوری در گروه های متنوع)، بازنمایی بیش از حد اقلیت ها وجود دارد.

این زمینه را برای تحقیقات آینده در مورد مداخلات بالقوه یا کاهش تعصب به الگوریتم ها فراهم می کند.

تقاطع فرهنگ و نتایج جستجوی تصویر گوگل

تحقیقات زیادی نشان داده است که الگوریتم ها می توانند مغرضانه باشند و بسیاری از آنها مغرضانه هستند. همانطور که قبلاً بحث شد، PankRank می تواند با این سوگیری ها برای تقویت یا کاهش آنها بازی کند، اما الگوریتم ها به تنهایی عمل نمی کنند.

در نمونه گوگل، نه تنها چندین الگوریتم در بازی وجود دارد، بلکه هوش مصنوعی و یادگیری ماشینی نیز وجود دارد. همه این عناصر به طور مداوم از طریق تعاملات (انسانی) ما در حال تکامل هستند.

تحقیق دیگری که در سال جاری منتشر شد، بررسی کرد که آیا نابرابری‌های جنسیتی اجتماعی در نتایج جستجوی Google Image (از طریق الگوریتم‌های جستجوی محلی) وجود دارد یا خیر.

محققان نابرابری جنسیتی را بر اساس کشور (بر اساس شاخص جهانی شکاف جنسیتی) و درصد مردانی که هنگام جستجوی «فرد» در زبان مربوطه هر کشور (با استفاده از VPN برای دسترسی به نتایج محلی) در نتایج جستجوی Google Image ظاهر می‌شوند، ترسیم کردند.

کشورهایی که نابرابری جنسیتی بیشتری داشتند، تصاویر بیشتری از مردان را برای کلمه کلیدی بی‌طرف جنسیتی «شخص» مشاهده کردند. که آنها ادعا می کنند پیوندی بین هنجارهای اجتماعی و خروجی الگوریتمی است.

بخش دوم این مطالعه به این موضوع پرداخته است که چگونه این نتایج مغرضانه می تواند بر تصمیم گیری افراد تأثیر بگذارد.

شرکت‌کنندگان به اسکرین‌شات‌هایی از نتایج Google Image از کشورهای با نابرابری پایین و با نابرابری بالا نگاه کردند و از آنها سؤالاتی در مورد جنسیت و شغل پرسیده شد.

با صرف نظر از جزئیات (اگرچه فکر می کنم مقاله ارزش خواندن دارد)، نتایج نشان داد که سوگیری های فرهنگی موجود در الگوریتم ها می توانند (و انجام می دهند) بر تصمیم گیری فردی تأثیر بگذارند.

هنگامی که شرکت کنندگان نتایج تصویری را از کشورهای با نابرابری پایین مشاهده کردند، نتایج آنها در مقایسه با نتایج کشورهای با نابرابری بالا، که در آن نتایج سوگیری های جنسیتی را تقویت می کرد، برابرتر بود.

سطح نابرابری جنسیتی اجتماعی در الگوریتم جستجو منعکس شده است، که من را به این فکر می‌کند که چقدر چقدر است. سپس ترکیب این عناصر بر ادراک فردی از طریق هر استفاده تأثیر می گذارد.

چه کسی مسئول تعصبات در SERP است؟

من این سفر را با پرسیدن این سوال آغاز کردم به امید پاسخی ساده.

متأسفانه، یکی وجود ندارد زیرا همه ما مسئول تعصبات در نتایج جستجو هستیم. از کدنویس‌های اصلی گرفته تا نویسندگان، متخصصان سئو و سازنده‌های لینک، و همچنین جامعه، فرهنگ و محیطی که در آن زندگی می‌کنیم.

تمام الگوریتم هایی را که روزانه با آنها تعامل دارید تصور کنید. اگر قرار گرفتن در معرض آن الگوریتم‌ها بر ادراک شما از جهان تأثیر بگذارد، به هم می‌ریزد و رشته‌های ورودی‌های متعدد را باز می‌کند.

ما چگونه میتوانیم آنرا بهتر کنیم؟

به عنوان یک خوشبین ناامید، نمی توانم شما را با چنین بار سنگینی رها کنم. بیایید بحث را در مورد اینکه چگونه می‌توانیم جستجو و محتوا را به فضایی فراگیرتر تبدیل کنیم، شروع کنیم.

محققانی که سوگیری‌ها را در PageRank بررسی کردند، بحث کردند که در حالی که شبکه‌های همجنسگرا نابرابری را در بازنمایی ایجاد می‌کنند، اقلیت‌ها می‌توانند از طریق شبکه‌سازی استراتژیک بر این موضوع غلبه کنند.

این راه حل منطقی نیست، بنابراین آنها اجرای DPAH را پیشنهاد کردند (نگران نباشید، من وارد جزئیات نمی شوم!).

این مدل نیاز اقلیت ها به شبکه سازی با اکثریت را برطرف می کند.

مداخلات مبتنی بر روانشناسی توسط مطالعه دیگر پیشنهاد شد زیرا به این نتیجه رسیدند که نابرابری جنسیتی اجتماعی در الگوریتم منعکس شده است. آنها خواستار یک هوش مصنوعی اخلاقی تر هستند که درک ما از روانشناسی و جامعه را ترکیب کند.

به طور معمول بزرگترین نگرانی یک متخصص SEO این است که چگونه به الگوریتم متوسل شود نه اینکه برابری یا برابری آنها را زیر سوال ببریم یا اینکه چگونه ممکن است تعصبات مضر را تداوم دهیم.

از طریق استفاده از نرم‌افزار مبتنی بر هوش مصنوعی برای تفسیر الگوریتم‌های مبتنی بر هوش مصنوعی، باید لحظه‌ای باشد که ما شروع به زیر سوال بردن مؤلفه‌های اخلاقی کار خود کنیم.

در حال حاضر، نتایج جستجو در صورت امکان، نمایش دقیقی از یک دنیای عادلانه نیست.

ما به‌عنوان متخصصان سئو، تولیدکنندگان محتوا و بازاریابان، نقش بزرگی در بازتولید محتوای ناعادلانه، افزایش دید برای صداهای بزرگ و تداوم تعصب‌های محلی-فرهنگی خود ایفا می‌کنیم.

در اینجا چند پیشنهاد دیگر برای کمک به ایجاد چشم انداز جستجوی عادلانه تر وجود دارد.

  • از تکرار محتوای مغرضانه خودداری کنید – پلتفرم خود را با صداهای متنوع به اشتراک بگذارید و روایت های جدیدی را در اطراف جایگاه خود ایجاد کنید.
  • ممیزی محتوای هوش مصنوعی – من قصد ندارم به همه محتوای هوش مصنوعی نه بگویم، اما باید توسط یک انسان بررسی شود زیرا خطر افتادن در الگوهای مشابه را دارد.
  • ممیزی الگوریتم – همانند نحوه ممیزی وب سایت ها، الگوریتم ها را می توان ممیزی کرد. منابعی برای ممیزی تعصبات بالقوه و ممیزی برای ارزیابی تأثیر وجود دارد.
  • حمایت از آموزش و پرورش – پشتیبانی یا داوطلب شدن با سازمان‌هایی که کدنویسی، نرم‌افزار یا آموزش فنی را به زنان، رنگین پوستان یا سایر گروه‌های به حاشیه رانده شده ارائه می‌دهند. به زنان در سئوی فناوری فریاد بزنید که یکی از آن فضاها هستند.
  • منابع چند زبانه – سئو و سایر منابع بازاریابی را به زبان‌هایی غیر از انگلیسی ایجاد کنید تا صداها و دیدگاه‌های متنوعی را ارائه دهید.
  • الگوریتم های کم سوگیری و هوش مصنوعی ایجاد کنید گفتن آسان تر از انجام دادن است، اما هوش مصنوعی گوگل سال گذشته KELM را معرفی کرد، که دارای پتانسیل هایی برای بررسی واقعیت و کاهش سوگیری است.
  • اصیل سازی جستجو را متوقف کنید – ضد رقابت بودن، ضد تجارت بودن است. این صداهای جدید و متنوع را سرکوب می کند، بنابراین من می خواهم شرکت های بیشتری را در چشم انداز جستجو و تنوع بیشتری در نتایج ببینم.

من قصد ندارم در مورد این موضوع حرف آخر را بزنم، زیرا این گفتگو باید در تاپیک های توییتر، در کنفرانس ها، صرف قهوه و در کارهای روزانه ما ادامه یابد.

لطفاً نظرات یا سؤالات خود را در مورد این موضوع به اشتراک بگذارید تا بتوانیم در مورد ایجاد تجربه جستجویی که به جامعه آسیبی نمی زند بحث کنیم.

منابع بیشتر:


تصویر ویژه: Andrii Yalanskyi/Shutterstock





منبع

مطالب مرتبط