بسترهای باز و دشمنان آن

در آغاز این یادداشت آزمایشی را برای شما شرح می‌دهم که شما هم می‌توانید برای خود بارها و بارها اجرا کرده و نتیجه را بررسی کنید. به وب سایت یوتوب (youtube.com) مراجعه می‌کنم. در کادر جستجو تایپ می‌کنم «جنگ جهانی دوم»، اولین نتیجه ویدئویی است با عنوان «جنگ جهانی دوم عملیات نپتون»، این مستند در مورد نبرد معروف ساحل نرماندی است که آغازی بر پایان جنگ جهانی دوم بود. یکی از ویژگی‌های یوتوب این است که بعد از اتمام یک ویدئو، به صورت خودکار ویدئوی بعدی را با انتخاب خود برای شما اجرا می‌کند، مگر اینکه گزینه‌ی Autoplay را خاموش کرده باشید. حتی اگر گزینه‌ی Autoplay را خاموش کنید، یوتوب همواره چندین ویدئو در نوارِ کناریِ صفحه به عنوان ویدئوهای مرتبط نمایش می‌دهد. این ویدئوها کاربر را وسوسه می‌کند تا ویدئوهای بیشتری تماشا کرده و در نتیجه مدت زمان بیشتری در سایت بماند. برای گوگل به عنوان مالک یوتوب، تماشای هر ویدئو به معنی کسب درآمد از طریق نمایشِ تبلیغات و یا دریافت حق اشتراک است. روی اولین نتیجه‌ی جستجو کلیک می‌کنم، در صفحه‌ی باز شده اولین ویدئوی مرتبط، با عنوان «مهمانان ناخوانده‌ی تهران» نمایش داده می‌شود؛ مربوط است به کنفرانس تهران که در جنگ جهانی دوم با حضور چرچیل، روزولت و استالین برگزار شد. اولین ویدئوی مرتبط را باز می‌کنم، در صفحه‌ی بعدی اولین ویدئوی مرتبط ویدئویی است با عنوان «مصدق، نفت و کودتا»، به همین روال ادامه می‌دهم، ویدئوی مرتبط بعدی این است: «اعترافات اجباری» و بعدی این است «فیلم مستندِ در اتاق بازجویی».

عنوان سایر ویدئوهای مرتبط را به دلایل ممیزی نمی‌توان ذکر کرد، اما حتما توجه دارید که وقتی یک کاربر می‌خواهد در مورد جنگ جهانی دوم اطلاعات کسب کند، در نهایت به کجا هدایت خواهد شد. یک بار دیگر عنوان‌ها را مرور کنیم: 1- جنگ جهانی دوم عملیات نپتون؛ 2- مهمانان ناخوانده‌ی تهران؛ 3- مصدق، نفت و کودتا؛ 4- اعترافات اجباری؛ 5- فیلم مستندِ در اتاق بازجویی. اولین نتیجه در مورد جنگ جهانی دوم است اما نه در مورد شروع یا میانه‌ی جنگ بلکه در مورد پایان جنگ که لزوما ممکن است مورد توجه کاربر نباشد اما یکی از عوامل تاثیرگذار بر الگوریتم‌های گوگل، قدیمی بودنِ حساب کاربریِ منتشرکننده‌ی ویدئو و تعداد بازدید یک ویدئو است نه آنچه کاربر واقعا می‌خواهد. دومین ویدئو در مورد نقش ایران در جنگ جهانی دوم است، گوگل می‌داند من ایرانی هستم و به زبان فارسی صحبت می‌کنم مهم نیست از فیلترشکن استفاده کرده باشم و موقعیت مکانیِ من به امریکا یا فرانسه تغییر یافته باشد، برای گوگل یافتن هویتِ اصلیِ من مثل آب خوردن است. بنابراین می‌داند باید جنگ جهانی دوم را از منظر یک ایرانی نمایش دهد. ویدئوی سوم در مورد مصدق است در اینجا چرخش اول صورت می‌گیرد؛ من به دنبال وقایع جنگ جهانی دوم بودم اما گوگل من را به سمت وقایع زمان مصدق که تا امروز محل مناقشه و دعواهای سیاسی است هُل می‌دهد. چرخش دوم در ویدئوی چهارم اتفاق می‌افتد وقتی گوگل من را سمت به ویدئویی در مورد انتقاد از جمهوری اسلامی و رفتار نامناسب با زندانیان هدایت می‌کند. ویدئوی پنجم هم در همین موضوع است و به این ترتیب هرچه جلوتر برویم رویکردِ افراطیِ ویدئوها نسبت به جمهوری اسلامی شدیدتر می‌شود. اگر من می‌خواستم در زمان تماشای این ویدئوها با هدایت گوگل پیش بروم در نهایت مساله‌ی جنگ جهانی دوم را فراموش می‌کردم و احتمالا به یک مبارزِ چریک و برانداز تبدیل می‌شدم.

شما هم این آزمایش را امتحان کنید، به احتمال بسیار زیاد حتی اگر جستجوهای شما سیاسی نباشد ممکن است در نهایت به ویدئوهای به شدت افراطی هدایت شوید و وقتی به خود آمدید متوجه خواهید شد که درون صفحه‌ی یوتوب شما پر شده است از ویدئوهای براندازی، رژیم چنج و ری‌استارت و ... . ولی به گیرنده‌های خود دست نزنید مشکل از اینترنت و رایانه نیست و نباید آنها را قطع کرد، این الگوریتم‌های گوگل هستند که باید اصلاح شوند.

یوتوب از فناوری یادگیری ماشین و هوش مصنوعی برای نمایشِ ویدئوهای مرتبط یا پخش خودکار ویدئوها بهره می‌برد. فرمول‌ها و الگوریتم‌های مورد استفاده در یوتوب و آمار مربوط به تعداد بازدیدهای یک ویدئو از طریق پخش خودکار و قرارگرفتن در لیست ویدئوهای مرتبط در اختیار عموم قرار ندارد. یک مهندس نرم‌افزار به نام گیام شالو (Guillaume Chaslot) که قبلا در تیم مهندسی در واحد تبلیغاتِ گوگل مشغول به کار بوده است برنامه‌ای به نام AlgoTransparency ساخته که بررسی می‌کند چه تعداد از ویدئوها از طریق سیستمِ پخشِ خودکار و ویدئوهای مرتبط نمایش داده شده است. طبق برآورد او روزانه یک میلیارد ساعت ویدئو در یوتوب مشاهده می‌شود که 70 درصد از این تعداد از طریق الگوریتم‌های پیشنهاد دهنده‌ی گوگل برای کاربر پخش می‌شود، یعنی کاربران در هر روز 700 میلیون ساعت ویدئو را از طریق پیشنهادات گوگل مشاهده می‌کنند؛ نرخِ پیشنهادِ محتوا برای فیس‌بوک 100 درصد است یعنی تمام محتوا و مطالبی که در خط زمانِ خود در فیس‌بوک مشاهده می‌کنید توسط الگوریتم‌ها گلچین و پیشنهاد شده‌اند. مساله اینجاست که شرکت‌های منتشرکننده‌ی محتوا هر روز بیشتر به الگوریتم‌ها برای پیشنهادِ محتوا وابسته می‌شوند و الگوریتم‌ها معنای افراطی‌گری را نمی‌فهمند. آنها به مرور یاد می‌گیرند هر چه محتوا افراطی‌تر و غیرمعقول‌تر باشد کاربر بیشتر به تماشای آن تمایل خواهد داشت. الگوریتم‌ها فقط می‌خواهند شانس بالاتری برای اقناعِ کاربر برای مشاهده‌ی بیشتر بدست آورند، بنابراین ویدئوهای افراطی برای آنها مثل آمدنِ جفت شش است.

با افزایش فشار افکار عمومی مدیران یوتوب در خط‌مشی و سیاست‌های انتشار محتوا تغییراتی اعمال کردند و تعداد زیادی از ویدئوهایی که مغایر با آن سیاست‌ها بود حذف شدند. اما به نظر می‌رسد این تغییرات بیشتر در زبان انگلیسی صورت گرفته و در زبان‌های دیگر مثل فارسی که کارمندان یوتوب با آن آشنایی چندانی ندارند همچنان با پدیده‌ی مورد اشاره در ابتدای یادداشت مواجه هستیم. حل مشکلِ پیش روی مدیرانِ یوتوب و گوگل ساده نیست و می‌توان گفت یکی از دشوارترین مشکلات پیش روی جوامع باز است. علی‌رغم تمام فشارها، سوزان ووجیتسکی (Susan Wojcicki) مدیرعامل یوتوب بر این باور است که حفظ و بقای یک بستر باز و آزاد بیش از پیش اهمیت دارد. از نظر او باز بودن بسترهایی چون یوتوب امکانِ رسیدن به فرصت‌های شغلیِ برابر برای همه‌ی انسان‌ها را بیش از گذشته فراهم می‌کند. باز بودن به پرورش یافتن و ارتقاء آگاهیِ یک جامعه کمک می‌کند چراکه مردم می‌توانند تجربیات خود را با یکدیگر به اشتراک بگذارند و درک بیشتری از آدم‌های گوناگونی که قبلا با آنها بیگانه بودند به دست بیاورند. باز بودن به فراهم کردن فرصتِ برابر برای آموزش به همه‌ی مردم در دوردست‌ترین نقاط جهان کمک می‌کند و این باعث توسعه و ظهور انبوه استعدادهای نهفته در یک جامعه می‌شود.

مشکلی که امروز جوامع باز در مواجهه با فناوری‌های نوین با آن دست به گریبان‌اند همان دوگانه‌ی آزادی و امنیت است و البته تاکنون هرگز به فکر حذف کامل آزادی در برابر حفظ امنیت نیفتاده‌اند چراکه به نظر می‌رسد با حذف آزادی، به مرور امنیت نیز از بین خواهد رفت. شاید بد نباشد برای توضیحِ بهتر این مشکل به فیلم مربع (The Square) ساخته‌ی روبن آستلند (Ruben Östlund) اشاره کنیم. در فیلم مربع، کریستین مدیرِ موزه‌ای در سوئد برای تبلیغ آثار به نمایش گذاشته شده، به گروهی که با مناسبات شبکه‌های اجتماعی به خوبی آشنایی دارند، سفارش می‌دهد تا یک تیزر تبلیغاتی بسازند. او که به شدت گرفتار مسائل دیگری است، بعد از ساخت تیزر بدون بازبینی، اجازه‌ی نشر آن را در کانال یوتوبِ موزه می‌دهد. مدتی بعد، از شرکت یوتوب با او تماس گرفته می‌شود تا اجازه‌ی پخش تبلیغ روی این تیزر را (که خود تبلیغاتی است)، دریافت کنند. کریستین تازه اینجاست که متوجه می‌شود سازندگان تیزر برای اینکه نظر کاربران را جلب کنند، صحنه‌ای از منفجر شدنِ یک دختربچه‌ی فقیر با موهای بلوند در وسط مربع که همان اثر هنری است، ساخته‌اند! با انتشار این ویدئو موجی از انتقادات و ابراز انزجار از موزه به راه می‌افتد. اما برای کارمندان یوتوب این مورد کوچکترین اهمیتی ندارد، آنها تنها می‌خواهند بازدیدِ تبلیغات خود را به حداکثر برسانند. برای رهایی از این فشارها کریستین به عنوان مدیرِ موزه و مسئول این اتفاق، در یک کنفرانس خبری استعفای خود را اعلام می‌کند اما در همان کنفرانس خبرنگاران اعتراض می‌کنند که پس آزادی بیان چه می‌شود؟ «آیا این به عهده‌ی شماست که آزادیِ بیان رو محدود کنید؟ چنین سانسور کردنی جای نگرانی نداره؟». در مربع آچمز شدنِ انسان‌ها در مواجهه با مفاهیم متضاد و در عین حال درگیر در یکدیگر به زیبایی نمایش داده می‌شود. به نظر می‌رسد فعلا و تا اطلاع ثانوی این دوگانه‌های متضاد همواره با ما هستند و خواهند بود.

باید پذیرفت که نمی‌توان به سادگی این مشکلات را حل کرد اما جریانی در حال شکل‌گیری است که احتمالا در آینده ساختار و کارکردِ محصولات فناورانه‌ی کنونی را دچار تحول خواهد کرد. این جریان در قالب موسسات غیرانتفاعی و رسانه‌های مستقل سعی دارند تفکر و نگرشِ فن‌گرایان را تغییر دهند. آنان در تلاشند تا مدل تجاریِ جدیدی ایجاد کنند و رقابت در بازار آزاد را به سمت فناوری‌هایی حرکت دهند که بیشتر با اخلاق و اهداف انسانی هماهنگ هستند. در ایران گرایش به استفاده از الگوریتم‌های یادگیریِ ماشین به سرعت در حال افزایش است و اکنون در ابتدای راهی هستیم که بسیاری از شرکت‌های بزرگِ دره‌ی سیلیکون در انتهای آن هستند و این البته می‌تواند به ما در ساخت محصولات فناورانه‌ی متکی بر هوش مصنوعی کمک کند و چه بهتر که سعی کنیم اشتباهات آنان را تکرار نکنیم.



مجتبی یکتا

برای مطالعه بیشتر به endregion.ir مراجعه کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *