Di zaman yang semakin dipengaruhi perangkat lunak yang memberitahu kita tentang apa yang harus dipikirkan, sesuatu yang lebih kuno muncul di pemberitaan: sekelompok orang menentukan apa yang disebut sebagai berita. Facebook ternyata menggunakan manusia untuk memilih topik yang dapat atau tidak dapat dilihat pemakai. Ironis bagi pihak-pihak yang mengeluhkan pengaruh mesin, masalahnya adalah tidak adanya algoritma.Pernyataan yang paling mengejutkan adalah pilihan topik trending situs memiliki keberpihakan antikonservatif, secara tidak seimbang menekan berita dan pandangan konservatif (perusahaan ini menyangkal keras). Ketika situs teknologi Gizmodo melaporkannya untuk pertama kalinya pada bulan Maret, mereka menyodorkan dua alasan mengapa Facebook malu terhadap keberpihakan politiknya.Pertama, kehadiran kontraktor manusia merusak “pandangan proses pemeringkatan berita tanpa keberpihakan”. Kedua, kontraktor “kurator berita” tersebut diperlakukan lebih baik dibandingkan perangkat lunak: beroperasi di luar budaya tanggung jawab atau kepemimpinan editorial, hanya berdasarkan konsep kabur “berita trending”, bekerja untuk memenuhi kuota yang mementingkan kuantitas.
Dengan kata lain, kehadiran manusia bukanlah hal yang dipentingkan, sama dengan masalah keberpihakan. Yang penting adalah platform berbagi informasi paling berpengaruh dunia dapat memilih apa yang bisa dilihat. Platform seperti Facebook melakukan kurasi terhadap berita dan informasi kita lewat “topik trending” atau “relevansi” tetapi kita jarang melihat cara penyaringannya.
Tingkah laku
Image captionEditor manusia Facebook didapati bisa mengontrol apa yang kita lihat.
Ini hal yang penting karena sedikit perubahan pada informasi yang kita terima dapat mengubah tingkah laku.Untuk memahami alasannya, coba pertimbangkan pengetahuan dari ilmu tingkah laku yang banyak diterapkan pemerintahan dan lembaga lain di dunia, dimana taktik halus dipakai untuk mendorong kita menerapkan tingkah laku tertentu. Salah satu contoh paling terkenal adalah mengeluarkan sumbangan organ tubuh, bukannya memasukkannya. Bukannya memaksa orang menjadi pendonor anggota tubuh, sistem tidak melibatkan orang beranggapan organ siapapun dapat disumbangkan kecuali disebutkan secara khusus. Hanya dengan mengubah asumsi, semakin banyak orang yang menyumbang.Apa yang dipermasalahkan? Para pengecamnya tidak nyaman dengan berkurangnya pemilihan berdasarkan informasi yang cukup. Penulis Nick Harkaway lewat tulisan untuk Institute of Art and Ideas, “bukannya menjelaskan masalah dan menyesuaikan kebijakan sesuai keinginan masyarakat, hal ini menempatkan keinginan masyarakat pada kebijakan yang diinginkan. Pilihan adalah suatu keterampilan, kebiasaan, anak kecil pun mengolah isi otaknya, dan hal ini harus dilatih agar menjadi terampil”.Kembali ke dunia digital dan bagaimana hal ini diterapkan. Ketika kita melakukan navigasi di internet, kita terus dihadapkan dengan berbagai pilihan, mulai dari apa yang dbeli sampai keyakinan yang perlu dianut, dan para perancang dapat sedikit mempengaruhi keputusan kita.
Informasi pribadi
Pada akhirnya, bukan hanya Facebook yang terlibat dalam permainan pemilihan informasi. Sistem rekomendasi yang lebih cerdas mengendalikan lonjakan intelijen buatan saat ini, teknologi siap pakai dan hal-hal lain di internet seperti Google, Apple dan Amazon. Pengiriman informasi pribadi canggih adalah nama permainannya. Tetapi yang dipertaruhkan bukan hanya manusia lawan mesin, tetapi pemilihan berdasarkan informasi lawan tunduk karena dipengaruhi.Semakin dekat informasi yang relevan, semakin baik keputusan yang kita ambil: ini adalah salah satu prinsip dasar teknologi informasi sebagai kekuatan positif.
Image captionRancangan teknologi tanpa disadari mempengaruhi kita.
Pemikir teknologi Luciano Floridi, pengarang buku The Fourth Revolution, menggunakan istilah “rancangan proetika” untuk menggambarkan proses yang terbaik: perwakilan seimbang informasi jelas yang membuat Anda secara sadar menangani dan bertanggung jawab terhadap suatu keputusan penting. Sistem informasi seharusnya memperluas bukannya mempersempit lingkup etika kita, Floridi mengatakan, dengan menolak godaan usaha mempengaruhi yang terlalu kuat. Jangan jadikan sumbangan anggota tubuh sebagai patokan otomatis; biarkan orang menghadapi masalah. Jangan diam-diam menerapkan pandangan relevansi buatan: undang pemakai untuk berpikir, bertanya dan menyempurnakan.Muncul masalah mendasar di sini: antara kemudahan dan pemikiran: antara apa yang diinginkan pemakai dan apa yang kemungkinan terbaik untuk mereka: antara keterbukaan dan keuntungan bisnis. Semakin tidak seimbang informasi, tentang apa yang diketahui sistem tentang Anda dengan apa yang Anda ketahui, semakin besar risiko pilihan Anda menjadi hanya serangkaian reaksi. Keseimbangan apa yang tersedia dan apa yang Anda ketahui semakin berubah setiap hari menuju ketidaktahuan masing-masing orang.Tidak terdapat obat sederhana untuk mengatasinya dan tidak terdapat persekongkolan besar-besaran. Dan memang, paduan perangkat lunak dengan pemilihan yang dilakukan manusia semakin menjadi satu-satunya cara yang dapat kita harapkan untuk menghadapi data dalam jumlah besar yang terkumpul di dunia. Tetapi tetap perlu diingat bahwa para perancang teknologi yang kita gunakan memiliki tujuan yang berbeda, dan apakah itu algoritma atau seorang editor, keberhasilan penggunaannya berarti menghilangkan pandangan bahwa kita dapat melarikan diri dari keberpihakan manusia.
Upvoted you