آیا سئوکاران مسئول تعصبات جستجوی گوگل هستند؟
در سال 2016، سازمان ملل متحد اعلام کرد که دسترسی به اینترنت یک حق بشر است.
این تصمیم با این درک گرفته شد که اینترنت ابزاری است برای همه برای دسترسی مقرون به صرفه به اطلاعات و ابراز وجود.
این قطعنامه بحث در مورد دسترسی از نظر زیرساخت را برانگیخت، جایی که کابلهای فیبر نصب یا بهروزرسانی میشوند، یا امکان دسترسی بدون وقفه در هنگام ناآرامیهای داخلی و سایر موارد اضطراری فراهم میشود.
در حالی که اینها نکات معتبر و مهمی هستند، اینترنت فقط سیم و صفحه نمایش نیست و اطلاعات به دست آمده را می توان بر اساس الگوریتم ها تغییر داد.
همانطور که اینترنت در زندگی ما ادغام شده است، اکنون بخشی از زیرساخت های اجتماعی ما (شبیه خدمات پزشکی یا آموزشی) است.
به خوبی مستند شده است که سوگیری ها در فضاهای پزشکی و آموزشی از جمله دسترسی به مراقبت و کیفیت مراقبت وجود دارد، اما نتایج جستجو چطور؟
آیا آنها منصف هستند؟ آیا آنها نماینده دنیای اطراف ما هستند؟ یا بیشتر ضرر دارند تا فایده؟
در یک الگوریتم چیست؟
در دیجیتال مارکتینگ، «الگوریتم» اصطلاحی است که هر روز بدون توجه به اینکه کسی معنی آن را میفهمد، مطرح میشود. هر پلتفرم یک (یا چندین) دارد و وظیفه ما این است که سعی کنیم آنها را راضی کنیم.
الگوریتم روشی است که زمانی که یک سیستم در حال انجام محاسبات است دنبال می شود.
این فرآیند یک ورودی می گیرد و از فرمول ها، قوانین یا سایر عملیات حل مسئله برای تولید خروجی استفاده می کند.
برای جستجو، این بدان معناست که پرس و جوهای وارد شده در جعبه جستجو ورودی هستند و SERP (صفحه نتایج موتور جستجو) خروجی است.
این یک توضیح بسیار ساده از آنچه در حال وقوع است است. گوگل از چندین الگوریتم در ترکیب با هوش مصنوعی (هوش مصنوعی) و یادگیری ماشینی استفاده می کند.
تشریح کل سیستم بسیار فراتر از محدوده من و فراتر از هدف این مقاله خواهد بود.
قناری در SERP ها
من به عنوان یک زن، با سوگیری ها در وب سایت ها، سیاست ها و به طور کلی جامعه بیگانه نیستم.
هر روز با کمی نمک در جهان گشت و گذار می کنم. بررسی سوگیری های بالقوه در نتایج جستجو چیزی است که مدتی است به آن علاقه مند بودم و از سال 2021 شروع به تحقیق در مورد این موضوع کردم.
یک پروژه تحقیقاتی اصلی (افشای کامل: که من به انجام آن کمک کردم) به نام ویژگیها را به ما بدهید، نه گلها، تعصب جنسیتی در چشمانداز اجتماعی و جستجو را برای عکاسان حرفهای بررسی کرد.
چندین پرسوجوی بینظیر از نظر جنسیتی، مانند «اکانتهای اینستاگرام بهترین عکاسی» یا «بهترین عکاسان» مورد آزمایش قرار گرفتند.
نتایج؟
زنان بهعنوان عکاس حرفهای بسیار کمتر از مردان در نتایج غنی و در محتوای صفحه یک، علیرغم تشکیل 50 درصد از افراد حرفهای، معرفی شدند.
چه کسی مسئول این تعصبات است؟ نویسندگانی که مقالات را نوشتند؟ موتورهای جستجو برای پاداش دادن به آن صفحات؟ طرفداران سئو برای توصیه مقاله به مشتری خود؟
واکنش درونی من مقصر دانستن کسی است که الگوریتم را ایجاد کرده است.
اگرچه این تا حدی درست است، اما تمام داستان نیست و به سادگی منصفانه نیست.
تعصبات ریشه در ساختارهای اجتماعی موجود ما دارد که در فرهنگ، دولت و تعاملات ما با دنیای اطراف ما تنیده شده است.
آیا الگوریتم رتبه صفحه بایاس است؟
تحقیقات منتشر شده در سال 2011 قبلاً عادلانه بودن رتبه صفحه را زیر سوال برده است.
مدلها نشان میدهند که با رشد وب، پایداری وبسایتهای با رتبه برتر پایدارتر میشود و وبسایتهای باقیمانده را برای بحث در مورد ضایعات باقی میگذارد.
Nature، یک مجله با داوری، مقاله ای را در فوریه 2022 منتشر کرد که در آن الگوریتم PageRank را بررسی کرد تا ببیند آیا تعصبات را معرفی می کند یا تقویت می کند.
برای بیان سادهترین عبارت، محققان پنج مدل اجتماعی بالقوه با درجات مختلف هموفیلی (“تمایل به ارتباط با دیگران مشابه”) ایجاد کردند.
هر مدل شامل 20 گره است، اما بیایید به آنها به عنوان وب سایت اشاره کنیم. سپس به هر وب سایت یک رتبه صفحه و به عنوان بخشی از اکثریت یا اقلیت در جامعه اختصاص داده شد.
نابرابری با استفاده از ضریب جینی (تحلیل آماری برای اندازهگیری نابرابری) اندازهگیری شد تا ببینیم چگونه یک فرد در برابر توزیع برابر امتیاز میگیرد. نابرابری با محاسبه درصد اقلیت ها در نتایج جستجوی برتر اندازه گیری شد.
یافتههای آنها نشان میدهد که الگوریتم PageRank میتواند تعصبها را کاهش، تکرار یا تقویت کند، بسته به مدل مورد استفاده.
در مدلهایی که درجه بالایی از همجنسگرایی داشتند، صداهای مسلط آن دیدگاهها و سوگیریها را در حالی که کمتر اقلیتها را نمایندگی میکردند، تداوم بخشیدند.
از سوی دیگر، هنگامی که گروه اکثریت هتروفیل هستند (تمایل به جمع آوری در گروه های متنوع)، بازنمایی بیش از حد اقلیت ها وجود دارد.
این زمینه را برای تحقیقات آینده در مورد مداخلات بالقوه یا کاهش تعصب به الگوریتم ها فراهم می کند.
تقاطع فرهنگ و نتایج جستجوی تصویر گوگل
تحقیقات زیادی نشان داده است که الگوریتم ها می توانند مغرضانه باشند و بسیاری از آنها مغرضانه هستند. همانطور که قبلاً بحث شد، PankRank می تواند با این سوگیری ها برای تقویت یا کاهش آنها بازی کند، اما الگوریتم ها به تنهایی عمل نمی کنند.
در نمونه گوگل، نه تنها چندین الگوریتم در بازی وجود دارد، بلکه هوش مصنوعی و یادگیری ماشینی نیز وجود دارد. همه این عناصر به طور مداوم از طریق تعاملات (انسانی) ما در حال تکامل هستند.
تحقیق دیگری که در سال جاری منتشر شد، بررسی کرد که آیا نابرابریهای جنسیتی اجتماعی در نتایج جستجوی Google Image (از طریق الگوریتمهای جستجوی محلی) وجود دارد یا خیر.
محققان نابرابری جنسیتی را بر اساس کشور (بر اساس شاخص جهانی شکاف جنسیتی) و درصد مردانی که هنگام جستجوی «فرد» در زبان مربوطه هر کشور (با استفاده از VPN برای دسترسی به نتایج محلی) در نتایج جستجوی Google Image ظاهر میشوند، ترسیم کردند.
کشورهایی که نابرابری جنسیتی بیشتری داشتند، تصاویر بیشتری از مردان را برای کلمه کلیدی بیطرف جنسیتی «شخص» مشاهده کردند. که آنها ادعا می کنند پیوندی بین هنجارهای اجتماعی و خروجی الگوریتمی است.
بخش دوم این مطالعه به این موضوع پرداخته است که چگونه این نتایج مغرضانه می تواند بر تصمیم گیری افراد تأثیر بگذارد.
شرکتکنندگان به اسکرینشاتهایی از نتایج Google Image از کشورهای با نابرابری پایین و با نابرابری بالا نگاه کردند و از آنها سؤالاتی در مورد جنسیت و شغل پرسیده شد.
با صرف نظر از جزئیات (اگرچه فکر می کنم مقاله ارزش خواندن دارد)، نتایج نشان داد که سوگیری های فرهنگی موجود در الگوریتم ها می توانند (و انجام می دهند) بر تصمیم گیری فردی تأثیر بگذارند.
هنگامی که شرکت کنندگان نتایج تصویری را از کشورهای با نابرابری پایین مشاهده کردند، نتایج آنها در مقایسه با نتایج کشورهای با نابرابری بالا، که در آن نتایج سوگیری های جنسیتی را تقویت می کرد، برابرتر بود.
سطح نابرابری جنسیتی اجتماعی در الگوریتم جستجو منعکس شده است، که من را به این فکر میکند که چقدر چقدر است. سپس ترکیب این عناصر بر ادراک فردی از طریق هر استفاده تأثیر می گذارد.
چه کسی مسئول تعصبات در SERP است؟
من این سفر را با پرسیدن این سوال آغاز کردم به امید پاسخی ساده.
متأسفانه، یکی وجود ندارد زیرا همه ما مسئول تعصبات در نتایج جستجو هستیم. از کدنویسهای اصلی گرفته تا نویسندگان، متخصصان سئو و سازندههای لینک، و همچنین جامعه، فرهنگ و محیطی که در آن زندگی میکنیم.
تمام الگوریتم هایی را که روزانه با آنها تعامل دارید تصور کنید. اگر قرار گرفتن در معرض آن الگوریتمها بر ادراک شما از جهان تأثیر بگذارد، به هم میریزد و رشتههای ورودیهای متعدد را باز میکند.
ما چگونه میتوانیم آنرا بهتر کنیم؟
به عنوان یک خوشبین ناامید، نمی توانم شما را با چنین بار سنگینی رها کنم. بیایید بحث را در مورد اینکه چگونه میتوانیم جستجو و محتوا را به فضایی فراگیرتر تبدیل کنیم، شروع کنیم.
محققانی که سوگیریها را در PageRank بررسی کردند، بحث کردند که در حالی که شبکههای همجنسگرا نابرابری را در بازنمایی ایجاد میکنند، اقلیتها میتوانند از طریق شبکهسازی استراتژیک بر این موضوع غلبه کنند.
این راه حل منطقی نیست، بنابراین آنها اجرای DPAH را پیشنهاد کردند (نگران نباشید، من وارد جزئیات نمی شوم!).
این مدل نیاز اقلیت ها به شبکه سازی با اکثریت را برطرف می کند.
مداخلات مبتنی بر روانشناسی توسط مطالعه دیگر پیشنهاد شد زیرا به این نتیجه رسیدند که نابرابری جنسیتی اجتماعی در الگوریتم منعکس شده است. آنها خواستار یک هوش مصنوعی اخلاقی تر هستند که درک ما از روانشناسی و جامعه را ترکیب کند.
به طور معمول بزرگترین نگرانی یک متخصص SEO این است که چگونه به الگوریتم متوسل شود نه اینکه برابری یا برابری آنها را زیر سوال ببریم یا اینکه چگونه ممکن است تعصبات مضر را تداوم دهیم.
از طریق استفاده از نرمافزار مبتنی بر هوش مصنوعی برای تفسیر الگوریتمهای مبتنی بر هوش مصنوعی، باید لحظهای باشد که ما شروع به زیر سوال بردن مؤلفههای اخلاقی کار خود کنیم.
در حال حاضر، نتایج جستجو در صورت امکان، نمایش دقیقی از یک دنیای عادلانه نیست.
ما بهعنوان متخصصان سئو، تولیدکنندگان محتوا و بازاریابان، نقش بزرگی در بازتولید محتوای ناعادلانه، افزایش دید برای صداهای بزرگ و تداوم تعصبهای محلی-فرهنگی خود ایفا میکنیم.
در اینجا چند پیشنهاد دیگر برای کمک به ایجاد چشم انداز جستجوی عادلانه تر وجود دارد.
- از تکرار محتوای مغرضانه خودداری کنید – پلتفرم خود را با صداهای متنوع به اشتراک بگذارید و روایت های جدیدی را در اطراف جایگاه خود ایجاد کنید.
- ممیزی محتوای هوش مصنوعی – من قصد ندارم به همه محتوای هوش مصنوعی نه بگویم، اما باید توسط یک انسان بررسی شود زیرا خطر افتادن در الگوهای مشابه را دارد.
- ممیزی الگوریتم – همانند نحوه ممیزی وب سایت ها، الگوریتم ها را می توان ممیزی کرد. منابعی برای ممیزی تعصبات بالقوه و ممیزی برای ارزیابی تأثیر وجود دارد.
- حمایت از آموزش و پرورش – پشتیبانی یا داوطلب شدن با سازمانهایی که کدنویسی، نرمافزار یا آموزش فنی را به زنان، رنگین پوستان یا سایر گروههای به حاشیه رانده شده ارائه میدهند. به زنان در سئوی فناوری فریاد بزنید که یکی از آن فضاها هستند.
- منابع چند زبانه – سئو و سایر منابع بازاریابی را به زبانهایی غیر از انگلیسی ایجاد کنید تا صداها و دیدگاههای متنوعی را ارائه دهید.
- الگوریتم های کم سوگیری و هوش مصنوعی ایجاد کنید گفتن آسان تر از انجام دادن است، اما هوش مصنوعی گوگل سال گذشته KELM را معرفی کرد، که دارای پتانسیل هایی برای بررسی واقعیت و کاهش سوگیری است.
- اصیل سازی جستجو را متوقف کنید – ضد رقابت بودن، ضد تجارت بودن است. این صداهای جدید و متنوع را سرکوب می کند، بنابراین من می خواهم شرکت های بیشتری را در چشم انداز جستجو و تنوع بیشتری در نتایج ببینم.
من قصد ندارم در مورد این موضوع حرف آخر را بزنم، زیرا این گفتگو باید در تاپیک های توییتر، در کنفرانس ها، صرف قهوه و در کارهای روزانه ما ادامه یابد.
لطفاً نظرات یا سؤالات خود را در مورد این موضوع به اشتراک بگذارید تا بتوانیم در مورد ایجاد تجربه جستجویی که به جامعه آسیبی نمی زند بحث کنیم.
منابع بیشتر:
تصویر ویژه: Andrii Yalanskyi/Shutterstock