توییتر از سال ۲۰۱۳ مساله حسابهای جعلی را کوچکنمایی کرده و معتقد است حسابهای «غلط یا اسپم» کمتر از ۵ درصد از کاربران را تشکیل میدهد. با این حال محققان مستقل میگویند رقم واقعی شاید سه برابر این آمار باشد.
به نقل از رویترز، حالا این رقم ممکن است بر نتیجه قرارداد ۴۴ میلیارد دلاری ماسک تاثیرگذار باشد. ماسک روز جمعه در توییتی خبر «توقف موقت» این قرارداد را داد و گفت اطلاعات بیشتری راجع به حسابهای جعلی توییتر میخواهد. هرچند که این اقدام ممکن است تاکتیک مذاکراتی ماسک باشد اما به گفته کارکنان فعلی و محققان مستقل شبکه اجتماعی، هیچ معیار مطمئنی برای شناسایی یا رد این حسابها وجود ندارد.
این شبکه اجتماعی در مستنداتی عمومی که روز ۲ مه منتشر شد، اعلام کرد کمتر از ۵ درصد از ۲۲۹ میلیون کاربر فعال این شرکت که هدف تبلیغات قرار دارند «جعلی یا اسپم» هستند. این آمار براساس بررسی نمونهای از حسابهای توییتر منتشر شده است. این شرکتی توضیحی مبنی اینکه این آمار چطور پروفایلهای مستعار و تقلیدی مجاز در این پلتفرم را نیز مد نظر قرار میدهد، ارائه نکرده است.
با این حال براساس مطالعهای مربوط به سال ۲۰۱۷ و تحقیقات جدید شرکتی که مکالمه آنلاین را زیر نظر دارد، محققان برآورد کردهاند که چیزی بین ۹ تا ۱۵ درصد از میلیونها پروفایل توییتر خودکار یا ربات هستند.
مدیرعامل شرکت سیابرا، که برای شناسایی حسابهای جعلی از یادگیری ماشینی استفاده میکند، میگوید: «آنها رقم پایینی ارائه کردهاند.» طبق برآورد سیابرا (Cyabra)، ۱۳.۷ درصد از پروفایلهای توییتر غیرواقعی هستند.
سوالات در مورد نقش رباتها در انتشار شایعه از سال ۲۰۱۶ و انتخابات ریاست جمهوری آن سال گریبان بسیاری از شبکههای اجتماعی را گرفته است.
براساس دادههای جدیدی که در گزارش سه ماهه چهارم ۲۰۲۱ منتشر شد، شرکت متا، مالک پلتفرمهای فیسبوک و اینستاگرام، هم معتقد است حسابهای جعلی حدود ۵ درصد از کاربران ماهانه این پلتفرم را تشکیل میدهند. متا معتقد است حدود ۱۱ درصد حسابهای «تکراری» هستند و به این صورت که یک کاربر بیشتر از چند حساب در این شبکه اجتماعی افتتاح میکند. این کار در پلتفرم توییتر عملی پذیرفته شده است.
قوانین توییتر تقلید و اسپم را ممنوع میداند و در نتیجه اگر پلتفرم به این نتیجه برسد که هدف حسابهای جعلی «فریب یا تاثیر بر دیگران» است آنها را مسدود میکند و این فریب و تاثیر شامل فعالیتهای کلاهبرداری، کارزارهای خشونتآمیز یا افزایش مصنوعی مشارکت است.
پاکسازی حسابهای اسپم
توییتر در سالهای گذاشته برای پاکسازی حسابهای اسپم سرمایهگذاری کرده است. این شرکت در سال ۲۰۱۸ شرکتی به نام اسمیت (Smyte)، متخصص جلوگیری، ایمنی و امنیت اسپم، را به مالکیت خود در آورد. توییتر در تلاشی برای بهبود سلامت این پلتفرم «حسابهای مشکوک و اسپم» را حذف کرد و این موضوع باعث شد تا در جولای ۲۰۱۸ یک میلیون از کاربران این شرکت اجتماعی کاسته شده و سهام این شرکت سقوط کند.
فیلیپو منکزر از بخش مشاهدات شبکه اجتماعی دانشگاه ایندیانا میگوید توییتر در مبارزه با این حسابهای غیرمعتبر جدیتر شده است اما ماهیت این تهدید رشد کرده و شناسایی آن سختتر شده است.
منکزر میگوید، از آنجایی که شبکههای هماهنگ و حسابهای رباتی در کنترل نرمافزار و نیروی انسانی هستند «چگونگی فریب هم پیچیدهتر شده است.» وی افزود که این بدکاران میتوانند «شبکه را پر از محتوا کرده و برای جلوگیری از شناسایی پس از مدتی آن را حذف کنند.»
حتی اگر اعداد و ارقام کوچک باشد، رباتها تاثیر گستردهای دارند و به گفته محققان چند ربات برای تاثیر بر یک مکالمه جدید آنلاین کفایت میکنند.
مطالعهای از دانشگاه کارنجی ملون (Carnegie Mellon) که انتشار اطلاعات غلط مربوط به کووید-۱۹ را در سال ۲۰۲۰ بررسی میکرد نشان داد از بین ۵۰ ریتوییت کننده بزرگ این موضوعات، ۸۲ درصد آنها را رباتها تشکیل میدادند.
به گفته منابعی مطلع، سنجش و شناسایی حسابهای جعلی و اسپم در داخل یک مشکل پیچیده است و بسیاری از کارکنان این شرکت هم درک کامل و جامعی از این موضوع ندارند.
به گفته یکی از منابع که با شرط گمنامی در این باره صحبت کردهاند، توییتر معیارها و تعاریف متعددی برای شناسایی این حسابها دارد و روند شناسایی متکی به شناسایی دقیق محتوای اسپم است. همچنین این شرکت در برآورد تعداد حسابهای جعلی و اسپم هم به مشکل و خورده و در هر لحظه تعدادی زیادی حساب جدید در این پلتفرم افتتاح میشود.
منبع دیگری که مدیریت نامنظم را برای این مساله سرزنش می کند میگوید «شفافیت معیار و داده همواره وضعیت بدی در توییتر داشته است. امنترین مسیر برای رهبر توییتر انکاری قابل قبول است.»