Twitter baru-baru ini telah menguji coba sebuah fitur baru bernama Safety Mode yang hadir untuk menjaga para pengguna agar terhindar dari ujaran kebencian hingga pelecehan.
Dengan Safety Mode, nantinya fitur tersebut bakal memblokir otomatis pengguna yang sering menulis cuitan berbau ujaran kebencian ataupun pelecehan sehingga pengguna tak bisa melihat cuitan tersebut muncul di timeline mereka.
Nantinya akun yang dianggap menulis cuitan berisi ujaran kebencian tersebut akan diblokir selama 7 hari dan setelah itu pengguna bisa memutuskan untuk memblokir akun tersebut untuk selamanya atau tidak.
"Fitur ini bisa diaktifkan di Settings, dimana sistem kami akan menilai kemungkinan konten negaitf dan bakal mempertimbangkannya dengan penulis dan akun yang membalas konten tersebut," ucap Jarrod Doherty selaku Senior Product Manager Twitter dikutip dari The Verge.
"Fitur ini akan mempertimbangkan hubungan yang pernah terjadi, jadi akun yang kalian ikuti atau sering berinteraksi bisa tidak diblokir secara otomatis," lanjut Doherty.
Tentunya dengan kehadiran Safety Mode, pengguna Twitter bisa mendapatkan informasi dan hiburan lebih aman sebab terhindar dari ujaran kebencian dan juga pelecehan yang tentunya bisa memberikan dampak negatif bagi sejumlah pengguna.