Gelembung tersaring: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
k →‎top: dirubah --> diubah
Tag: Dikembalikan
Menolak 4 perubahan teks terakhir (oleh Grizzexploder, AABot, LaninBot dan Philosophical Zombie Bot) dan mengembalikan revisi 13061576 oleh HsfBot
Tag: Penggantian Pengembalian manual
Baris 1:
[[Berkas:Eli_Pariser,_author_of_The_Filter_Bubble_-_Flickr_-_Knight_Foundation_(1).jpg|jmpl|Istilah ini dicetuskan oleh aktivis internet bernama  Eli Pariser]]
'''Gelembung tersaring''' merupakan hasil dari pencarian swaatur yang didasarkan pada [[algoritme]] suatu situs untuk menebak secara selektif informasi apa saja yang ingin diketahui oleh seseorang berdasarkan informasi pengguna (misalnya tempat, kebiasan mengeklik, dan sejarah pencarian).<ref>{{cite journal|date=23 June 2013|title=Bias in algorithmic filtering and personalization|url=http://link.springer.com/article/10.1007/s10676-013-9321-6|journal=Ethics and Information Technology|volume=15|issue=3|pages=209–227|last1=Bozdag|first1=Engin}}</ref><ref>[//en.wikipedia.org/wiki/Web_beacon Web bug (slang)]</ref><ref>[//en.wikipedia.org/wiki/Website_visitor_tracking Website visitor tracking]</ref>  Sebagai hasilnya, pengguna menjadi terpisah dari informasi yang bertentangan dengan sudut pandangnya sehingga mereka terkungkung dalam gelembung budaya atau pemikiran pribadi.<ref>[http://www.huffingtonpost.in/ishtiaque-hossain/filter-bubbles-are-shrinking-our-minds/ The Huffington Post "Are Filter-bubbles Shrinking Our Minds?"]</ref>.<ref>{{cite journal|last2=Séaghdha|first2=Diarmuid Ó|last3=Quercia|first3=Daniele|last4=Jambor|first4=Tamas|date=February 2012|title=Auralist: Introducing Serendipity into Music Recommendation|url=http://www-typo3.cs.ucl.ac.uk/fileadmin/UCL-CS/research/Research_Notes/RN_11_21.pdf|journal=ACM WSDM|last1=Zhang|first1=Yuan Cao}}</ref>
 
Gelembung filter - istilah yang diciptakan oleh aktivis Internet Eli Pariser - adalah keadaan isolasi intelektual yang diduga dapat dihasilkan dari penelusuran hasil personalisasi saat algoritme situs web secara selektif menebak informasi apa yang ingin dilihat pengguna berdasarkan informasi tentang pengguna, seperti lokasi, klik-perilaku lalu dan riwayat pencarian. Akibatnya, pengguna menjadi terpisah dari informasi yang tidak setuju dengan sudut pandang mereka, secara efektif mengisolasi mereka dalam gelembung budaya atau ideologi mereka sendiri. Pilihan yang dibuat oleh algoritme ini tidak transparan. Contoh utama termasuk hasil Pencarian Google Personalized dan aliran berita yang dipersonalisasi di Facebook. Efek gelembung mungkin memiliki implikasi negatif untuk wacana kewarganegaraan, menurut Pariser, tetapi pandangan yang kontras menganggap efeknya sebagai minimal dan dapat dialamatkan. Hasil mengejutkan dari pemilihan presiden AS pada tahun 2016 telah dikaitkan dengan pengaruh platform media sosial seperti Twitter dan Facebook, dan sebagai hasilnya telah dipertanyakan efek fenomena "gelembung filter" pada paparan pengguna terhadap berita palsu dan ruang gema, memacu minat baru dalam istilah, dengan banyak yang khawatir bahwa fenomena tersebut dapat membahayakan demokrasi.
 
(Teknologi seperti media sosial) memungkinkan Anda pergi dengan orang yang berpikiran sama, sehingga Anda tidak bercampur dan berbagi dan memahami sudut pandang lain ... Ini sangat penting. Hal ini ternyata lebih menjadi masalah daripada yang saya, atau banyak orang lain, harapkan.
 
- Bill Gates 2017 di Quartz
 
Konsep
 
Media sosial, yang berusaha untuk menyenangkan pengguna, dapat mengalihkan informasi yang mereka duga pengguna mereka akan suka dengar, tetapi secara tidak sengaja mengisolasi apa yang mereka ketahui ke dalam gelembung filter mereka sendiri, menurut Pariser.
 
Istilah ini diciptakan oleh aktivis internet Eli Pariser sekitar tahun 2010 dan dibahas dalam bukunya 2011 dengan nama yang sama; menurut Pariser, pengguna mendapatkan lebih sedikit paparan sudut pandang yang saling bertentangan dan terisolasi secara intelektual dalam gelembung informasi mereka sendiri. Dia mengaitkan contoh di mana satu pengguna mencari Google untuk "BP" dan mendapat berita investasi tentang British Petroleum, sementara pencari lain mendapat informasi tentang tumpahan minyak Deepwater Horizon, dan mencatat bahwa dua halaman hasil pencarian "sangat berbeda".
 
Pariser mendefinisikan konsep gelembung filter dalam istilah yang lebih formal sebagai "ekosistem pribadi informasi yang telah dipenuhi oleh algoritme ini". Riwayat penelusuran dan pencarian terakhir pengguna Internet dibangun dari waktu ke waktu ketika mereka menunjukkan minat pada topik dengan "mengeklik tautan, melihat teman, menempatkan film dalam antrian [mereka], membaca berita", dan seterusnya. Sebuah perusahaan Internet kemudian menggunakan informasi ini untuk menargetkan iklan kepada pengguna, atau membuat jenis informasi tertentu muncul lebih jelas di halaman hasil pencarian. Proses ini juga tidak acak, dan beroperasi di bawah tiga langkah proses. Menurut buku Eli Pariser, prosesnya menyatakan, "Pertama, Anda mencari tahu siapa orang dan apa yang mereka sukai. Kemudian, Anda memberi mereka konten dan layanan yang paling sesuai bagi mereka. Akhirnya, Anda menyetel untuk menyesuaikan dengan tepat. identitas membentuk media Anda. " Ini menggambarkan bagaimana kita membiarkan media merumuskan pikiran kita karena pesan yang berulang yang kita temui setiap hari.
 
Bagaimana gelembung dan algoritme filter bekerja sesuai dengan Studi Wall Street Journal adalah, "50 situs Internet teratas menginstal 64 cookie dan lacak pelacakan data atau pelacakan algoritme data yang disebutkan di atas." Google secara khusus memiliki 57 algoritme untuk tujuan menyesuaikan pencarian Anda. Misalnya, mencari kata seperti "depresi" di Dictionary.com memungkinkan situs memasang lebih dari 200 algoritme pelacakan di komputer Anda sehingga situs web dapat menargetkan Anda dengan antidepresan.
 
Istilah-istilah lain telah digunakan untuk menggambarkan fenomena ini, termasuk "kerangka ideologis" dan "lingkup figuratif yang mengelilingi Anda ketika Anda mencari di Internet". Istilah terkait, "echo chamber", awalnya diterapkan pada media berita, tetapi sekarang diterapkan ke media sosial juga.
 
Ide Paris tentang gelembung filter dipopulerkan setelah pembicaraan TED yang ia berikan pada bulan Mei 2011, di mana ia memberikan contoh bagaimana gelembung filter bekerja dan di mana mereka dapat dilihat. Dalam tes yang mencoba mendemonstrasikan efek gelembung filter, Pariser meminta beberapa teman untuk mencari kata "Mesir" di Google dan mengirim hasilnya. Membandingkan dua halaman hasil pertama teman-teman, sementara ada tumpang tindih di antara mereka tentang topik seperti berita dan perjalanan, satu hasil teman secara mencolok memasukkan tautan ke informasi tentang revolusi Mesir tahun 2011 yang sedang berlangsung, sementara halaman hasil pertama teman lainnya. tidak menyertakan tautan semacam itu.
 
Dalam The Filter Bubble, Pariser memperingatkan bahwa potensi downside untuk pencarian yang disaring adalah bahwa "menutup kita ke ide-ide baru, subyek, dan informasi penting", dan "menciptakan kesan bahwa kepentingan diri kita yang sempit adalah semua yang ada". Hal ini berpotensi membahayakan baik individu maupun masyarakat, dalam pandangannya. Dia mengkritik Google dan Facebook untuk menawarkan pengguna"terlalu banyak permen, dan tidak cukup wortel". Dia memperingatkan bahwa "pengeditan algoritmik yang tidak terlihat di web" dapat membatasi pemaparan kami terhadap informasi baru dan mempersempit pandangan kami. Menurut Pariser, efek merugikan dari gelembung filter termasuk membahayakan masyarakat umum dalam arti bahwa mereka memiliki kemungkinan "merusak wacana sipil" dan membuat orang lebih rentan terhadap "propaganda dan manipulasi". Dia menulis:
 
Dunia yang dibangun dari familiarnya adalah dunia di mana tidak ada yang perlu dipelajari ... (karena ada) autopropaganda yang tidak terlihat, mengindoktrinasi kita dengan ide-ide kita sendiri.
 
- Eli Pariser dalam The Economist, 2011
 
Banyak orang tidak menyadari bahwa gelembung filter bahkan ada. Hal ini dapat dilihat dalam artikel di The Guardian, yang menyebutkan fakta bahwa "lebih dari 60% pengguna Facebook sama sekali tidak menyadari adanya kurasi di Facebook, percaya bahwa setiap cerita dari teman-teman dan halaman diikuti muncul di mereka umpan berita. " Penjelasan singkat tentang bagaimana Facebook memutuskan apa yang terjadi pada feed berita pengguna adalah melalui algoritma yang memperhitungkan "bagaimana Anda berinteraksi dengan posting serupa di masa lalu."
 
Gelembung filter telah digambarkan sebagai memperburuk fenomena yang disebut splinternet atau cyberbalkanization, yang terjadi ketika internet dibagi menjadi sub-kelompok orang-orang yang berpikiran sama yang menjadi terisolasi dalam komunitas online mereka sendiri dan gagal mendapatkan eksposur yang berbeda-beda. dilihat. Kekhawatiran ini berawal dari hari-hari awal Internet yang dapat diakses publik, dengan istilah "cyberbalkanization" yang diciptakan pada tahun 1996.
 
Konsep serupa
 
Informasi lebih lanjut: Ruang gema (media)
 
Dalam media berita, ruang gema adalah deskripsi metafora dari situasi di mana keyakinan diperkuat atau diperkuat oleh komunikasi dan pengulangan dalam sistem tertutup. Dengan mengunjungi "ruang gema", orang dapat mencari informasi yang memperkuat pandangan mereka yang ada, berpotensi sebagai latihan bias konfirmasi yang tidak disadari. Ini dapat meningkatkan polarisasi sosial dan politik dan ekstremisme. Istilah ini adalah metafora berdasarkan ruang gema akustik, di mana suara bergema di dalam ruang kosong.
 
Alamat perpisahan Barack Obama mengidentifikasi konsep yang sama untuk menyaring gelembung sebagai "ancaman terhadap demokrasi [Amerika]", yaitu, "mundur ke dalam gelembung kita sendiri, ... terutama umpan media sosial kami, dikelilingi oleh orang-orang yang terlihat seperti kami dan berbagi pandangan politik yang sama dan tidak pernah menantang asumsi kita ... Dan semakin kita menjadi sangat aman dalam gelembung kita bahwa kita mulai menerima hanya informasi, apakah itu benar atau tidak, yang sesuai dengan pendapat kita, daripada mendasarkan pendapat kita pada bukti yang di luar sana."
 
Reaksi dan studi
 
Reaksi media
 
Ada laporan yang saling bertentangan tentang sejauh mana penyaringan yang dipersonalisasi terjadi dan apakah aktivitas tersebut bermanfaat atau berbahaya. Analis Jacob Weisberg, menulis pada Juni 2011 untuk Slate, melakukan percobaan non-ilmiah kecil untuk menguji teori Paris yang melibatkan lima rekan dengan latar belakang ideologi yang berbeda melakukan serangkaian pencarian, "John Boehner", "Barney Frank", "Ryan rencana", dan "Obamacare", dan mengirim tangkapan layar Weisberg dari hasil mereka. Hasilnya bervariasi hanya dalam hal-hal kecil dari orang ke orang, dan setiap perbedaan tampaknya tidak berhubungan dengan ideologi, yang menyebabkan Weisberg menyimpulkan bahwa gelembung filter tidak berlaku, dan menulis bahwa gagasan bahwa sebagian besar pengguna Internet "memberi makan di palung Daily Me "terlalu dibesar-besarkan. Weisberg meminta Google untuk berkomentar, dan seorang juru bicara menyatakan bahwa algoritme dibuat dengan sengaja untuk "membatasi personalisasi dan mempromosikan variasi". Resensi buku Paul Boutin melakukan percobaan serupa dengan Weisberg di antara orang-orang dengan sejarah pencarian yang berbeda, dan sekali lagi menemukan bahwa para pencari yang berbeda menerima hasil pencarian yang hampir identik. Mewawancarai programmer di Google dari jurnalis rekaman Per Grankvist menemukan bahwa data pengguna digunakan untuk memainkan peran yang lebih besar dalam menentukan hasil pencarian tetapi Google, melalui pengujian, menemukan bahwa permintaan pencarian sejauh ini merupakan penentu terbaik pada hasil apa yang akan ditampilkan.
 
Ada laporan bahwa Google dan situs lain menyimpan "berkas" informasi yang sangat besar tentang penggunanya yang memungkinkan mereka untuk mempersonalisasi lebih lanjut pengalaman Internet individu jika mereka memilih untuk melakukannya. Misalnya, teknologi ada untuk Google untuk melacak sejarah masa lalu pengguna bahkan jika mereka tidak memiliki akun Google pribadi atau tidak masuk ke salah satu. Satu laporan menyatakan bahwa Google telah mengumpulkan informasi "10 tahun berharga" yang dikumpulkan dari berbagai sumber, seperti Gmail, Google Maps, dan layanan lain selain mesin pencari, [tidak dalam kutipan] meskipun laporan sebaliknya adalah yang mencoba untuk mempersonalisasikan Internet untuk setiap pengguna secara teknis menantang bagi perusahaan internet untuk mencapainya meskipun data dalam jumlah besar tersedia. [Rujukan?] Analis Doug Gross dari CNN menyarankan bahwa pencarian yang disaring tampaknya lebih bermanfaat bagi konsumen daripada bagi warga negara, dan akan membantu konsumen yang mencari "pizza" menemukan opsi pengiriman lokal berdasarkan penelusuran yang dipersonalisasi dan menyaring toko pizza yang jauh dengan tepat. [tidak dalam kutipan yang diberikan] Organisasi seperti Washington Post, The New York Times, dan lainnya telah bereksperimen dengan pembuatan layanan informasi pribadi baru, dengan tujuan menyesuaikan hasil pencarian dengan yang mungkin disukai atau disetujui oleh pengguna.
 
Studi dan reaksi akademisi
 
Sebuah penelitian ilmiah dari Wharton yang menganalisis rekomendasi hasil personalisasi juga menemukan bahwa filter ini benar-benar dapat menciptakan kesamaan, bukan fragmentasi, dalam selera musik online. Konsumen dilaporkan menggunakan filter untuk memperluas selera mereka daripada membatasinya. Profesor hukum Harvard Jonathan Zittrain memperdebatkan sejauh mana filter personalisasi mendistorsi hasil pencarian Google, mengatakan bahwa "efek personalisasi pencarian telah menjadi ringan". Lebih lanjut, Google menyediakan kemampuan bagi pengguna untuk mematikan fitur personalisasi jika mereka memilih, dengan menghapus catatan Google tentang riwayat pencarian mereka dan mengatur Google agar tidak mengingat kata kunci pencarian mereka dan mengunjungi tautan di masa depan.
 
Sebuah studi oleh para peneliti dari Oxford, Stanford, dan Microsoft memeriksa sejarah penjelajahan dari 1,2 juta pengguna AS dari add-on Toolbar Bing untuk Internet Explorer antara Maret dan Mei 2013. Mereka memilih 50.000 pengguna yang merupakan konsumen aktif berita, lalu diklasifikasikan apakah outlet berita yang mereka kunjungi adalah kiri atau kanan, berdasarkan pada apakah mayoritas pemilih di daerah yang terkait dengan alamat IP pengguna memilih Obama atau Romney dalam pemilihan presiden 2012. Mereka kemudian mengidentifikasi apakah cerita berita dibaca setelah mengakses situs penerbit secara langsung, melalui layanan agregasi Google News, melalui penelusuran web, atau melalui media sosial. Para peneliti menemukan bahwa sementara penelusuran web dan media sosial berkontribusi pada pemisahan ideologis, sebagian besar konsumsi berita online terdiri dari pengguna yang secara langsung mengunjungi situs berita mainstream kiri atau kanan, dan akibatnya terpapar hampir secara eksklusif untuk dilihat dari satu sisi dari spektrum politik. Keterbatasan penelitian termasuk masalah seleksi seperti pengguna Internet Explorer yang condong lebih tinggi dalam usia daripada populasi Internet umum; Penggunaan Bing Toolbar dan berbagi riwayat pilihan riwayat secara sukarela (atau tidak diketahui) bagi pengguna yang kurang peduli tentang privasi; asumsi bahwa semua cerita dalam publikasi yang berhaluan kiri condong ke kiri, dan sama untuk condong ke kanan; dan kemungkinan bahwa pengguna yang bukan konsumen berita aktif mungkin mendapatkan sebagian besar berita mereka melalui media sosial, dan dengan demikian mengalami efek yang lebih kuat dari bias sosial atau algoritmik daripada pengguna yang pada dasarnya memilih sendiri bias mereka melalui pilihan publikasi berita mereka (dengan asumsi mereka sadar akan bias publikasi '.
 
Studi platform
 
Meskipun algoritma membatasi keragaman politik, beberapa gelembung filter adalah hasil dari pilihan pengguna. Dalam sebuah studi oleh para ilmuwan data di Facebook, mereka menemukan bahwa untuk setiap empat teman Facebook yang berbagi ideologi, pengguna memiliki satu teman dengan pandangan yang kontras. Tidak peduli apa pun algoritme Facebook untuk Pemberian Kabar Berita, orang lebih cenderung berteman / mengikuti orang yang memiliki keyakinan serupa. Sifat dari algoritmanya adalah ia memeringkat cerita berdasarkan riwayat pengguna, yang menghasilkan pengurangan "konten lintas sektor politik sebesar 5 persen untuk kalangan konservatif dan 8 persen untuk kaum liberal". Namun, bahkan ketika orang diberi opsi untuk mengeklik tautan yang menawarkan tampilan yang kontras, mereka tetap menggunakan sumber yang paling banyak dilihat. "[U] ser pilihan mengurangi kemungkinan mengklik pada link lintas sektor oleh 17 persen untuk konservatif dan 6 persen untuk kaum liberal." Tautan lintas sektoral adalah tautan yang memperkenalkan sudut pandang yang berbeda dari sudut pandang yang diduga pengguna, atau apa yang dipatok sebagai keyakinan pengguna oleh situs web.
 
Studi Facebook menemukan bahwa itu "tidak meyakinkan" apakah atau tidak algoritma memainkan peran besar dalam menyaring News Feed sebagai orang diasumsikan. Studi ini juga menemukan bahwa "pilihan individu", atau bias konfirmasi, juga mempengaruhi apa yang disaring dari Kabar Berita. Beberapa ilmuwan sosial mengkritik kesimpulan ini, karena titik protes gelembung filter adalah bahwa algoritma dan pilihan individu bekerja sama untuk menyaring Kabar Berita. Mereka juga mengkritik ukuran sampel kecil Facebook, yaitu sekitar "9% dari pengguna Facebook sebenarnya", dan fakta bahwa hasil studi "tidak dapat direproduksi" karena fakta bahwa penelitian ini dilakukan oleh "ilmuwan Facebook" yang memiliki akses ke data yang tidak disediakan Facebook untuk peneliti luar.
 
Meskipun studi ini menemukan bahwa hanya sekitar 15-20% dari rata-rata pengguna teman Facebook yang berlangganan ke sisi berlawanan dari spektrum politik, Julia Kaman dari Vox berteori bahwa ini bisa berpotensi positif implikasi untuk keragaman sudut pandang. "Teman-teman" ini sering kenalan dengan siapa kita tidak mungkin berbagi politik kita tanpa internet. Facebook dapat mengembangkan lingkungan yang unik di mana pengguna melihat dan mungkin berinteraksi dengan konten yang diposting atau diposting ulang oleh teman-teman "tingkat kedua" ini. Studi ini menemukan bahwa "24 persen dari barang-barang berita yang dilihat oleh kaum liberal memiliki kecenderungan konservatif dan 38 persen dari konservatif pemberitaan melihat liberal-condong." "Liberal cenderung terhubung dengan lebih sedikit teman yang berbagi informasi dari pihak lain, dibandingkan dengan rekan-rekan konservatif mereka." Interaksi ini memiliki kemampuan untuk menyediakan beragam informasi dan sumber yang dapat memoderasi pandangan pengguna.
 
Demikian pula, studi tentang gelembung filter Twitter oleh New York University menyimpulkan bahwa "Individu sekarang memiliki akses ke rentang pandangan yang lebih luas tentang peristiwa berita, dan sebagian besar informasi ini tidak datang melalui saluran tradisional, tetapi baik langsung dari aktor politik atau melalui teman-teman dan kerabat mereka. Selain itu, sifat interaktif media sosial menciptakan peluang bagi individu untuk mendiskusikan peristiwa politik dengan teman-teman mereka, termasuk mereka yang memiliki ikatan sosial yang lemah. Menurut penelitian ini, media sosial dapat melakukan diversifikasi informasi dan pendapat yang berhubungan dengan pengguna, meskipun ada banyak spekulasi di sekitar gelembung filter dan kemampuan mereka untuk menciptakan polarisasi politik yang lebih dalam.
 
Ketika gelembung filter berada di tempatnya, mereka dapat menciptakan momen-momen tertentu yang oleh para ilmuwan disebut sebagai momen 'Whoa'. Saat 'Whoa' adalah ketika artikel, iklan, pos, dll. Muncul di komputer Anda yang terkait dengan tindakan saat ini atau penggunaan objek saat ini. Para ilmuwan menemukan istilah ini setelah seorang wanita muda melakukan rutinitas sehari-harinya, termasuk minum kopi, ketika dia membuka komputernya dan melihat iklan untuk merek kopi yang sama yang dia minum. "Duduk dan buka Facebook pagi ini sambil minum kopi, dan di sana mereka ada dua iklan untuk Nespresso. Jenis momen 'whoa' ketika produk yang Anda minum muncul di layar di depan Anda." Momen 'Whoa' terjadi ketika orang "ditemukan." Yang berarti algoritma iklan menargetkan pengguna tertentu berdasarkan 'perilaku klik' mereka untuk meningkatkan pendapatan penjualan mereka. Saat-saat 'Whoa' juga dapat memicu disiplin pada pengguna untuk tetap berpegang pada rutinitas dan kesamaan dengan produk.
 
Beberapa desainer telah mengembangkan alat untuk meniadakan efek dari gelembung filter (lihat § Langkah-langkah penghitungan). Stasiun radio Swiss SRF memilih kata filterblase (terjemahan bahasa Jerman dari gelembung filter) kata tahun 2016.
 
Langkah-langkah penghitungan
 
Oleh individu
 
Dalam The Filter Bubble: Apa yang Internet Sembunyikan dari Anda, aktivis internet Eli Pariser menyoroti bagaimana peningkatan terjadinya gelembung filter lebih jauh menekankan nilai modal sosial bridging seseorang sebagaimana didefinisikan oleh Robert Putman. Memang, sementara ikatan modal sesuai di satu sisi untuk pembentukan ikatan yang kuat antara orang-orang yang berpikiran sama, sehingga memperkuat beberapa rasa homogenitas sosial, menjembatani modal sosial di sisi lain merupakan penciptaan hubungan yang lemah antara orang-orang dengan potensi divergen dan sudut pandang, maka memperkenalkan heterogenitas secara signifikan lebih. Dalam pengertian itu, modal menjembatani tinggi jauh lebih mungkin untuk mempromosikan inklusi sosial dengan meningkatkan eksposur kami ke ruang di mana kami mengatasi masalah yang melampaui ceruk kami dan kepentingan diri yang sempit. Membina modal bridging seseorang - misalnya dengan menghubungkan dengan lebih banyak orang dalam pengaturan informal - karena itu dapat menjadi cara yang efektif untuk mengurangi pengaruh fenomena gelembung filter.
 
Pengguna sebenarnya dapat mengambil banyak tindakan untuk menerobos gelembung filter mereka, misalnya dengan membuat upaya sadar untuk mengevaluasi informasi apa yang mereka hadapi sendiri, dan dengan berpikir secara kritis tentang apakah mereka terlibat dengan berbagai konten yang luas. Pandangan ini berpendapat bahwa pengguna harus mengubah psikologi bagaimana mereka mendekati media, daripada mengandalkan teknologi untuk meniadakan bias mereka. Pengguna dapat secara sadar menghindari sumber berita yang tidak dapat diverifikasi atau lemah. Chris Glushko, Wakil Direktur Pemasaran di IAB, mendukung penggunaan situs pengecekan fakta seperti Snopes.com untuk mengidentifikasi berita palsu. Teknologi juga dapat memainkan peran berharga dalam memerangi gelembung filter.
 
Situs web seperti allsides.com dan hifromtheotherside.com bertujuan untuk mengekspos pembaca ke berbagai perspektif dengan konten yang beragam. Beberapa tambahan plug-in bertujuan untuk membantu orang keluar dari gelembung filter mereka dan membuat mereka sadar akan perspektif pribadi mereka; dengan demikian, media ini menunjukkan konten yang bertentangan dengan keyakinan dan pendapat mereka. Misalnya, Escape Your Bubble meminta pengguna untuk menunjukkan partai politik tertentu yang ingin mereka ketahui lebih banyak. Plug-in kemudian akan menyarankan artikel dari sumber yang mapan untuk membaca terkait dengan partai politik tersebut, mendorong pengguna untuk menjadi lebih terdidik tentang pihak lain. Selain plug-in, ada aplikasi yang dibuat dengan misi mendorong pengguna untuk membuka ruang gema mereka. Baca Across the Aisle adalah aplikasi berita yang mengungkapkan apakah pengguna membaca dari berbagai sumber baru yang mencakup berbagai perspektif. Setiap sumber berwarna terkoordinasi, mewakili tatanan politik dari setiap artikel. Ketika pengguna hanya membaca berita dari satu perspektif, aplikasi tersebut mengomunikasikannya kepada pengguna dan mendorong pembaca untuk mengeksplorasi sumber lain dengan sudut pandang yang berlawanan. Meskipun aplikasi dan plug-in adalah alat yang dapat digunakan manusia, Eli Pariser menyatakan "tentu saja, ada beberapa tanggung jawab individu di sini untuk benar-benar mencari sumber-sumber baru dan orang-orang yang tidak menyukai Anda."
 
Karena periklanan berbasis web dapat meningkatkan efek dari gelembung filter dengan memaparkan pengguna ke lebih banyak konten yang sama, pengguna dapat memblokir banyak iklan dengan menghapus riwayat pencarian mereka, mematikan iklan yang ditargetkan, dan mengunduh ekstensi peramban. Ekstensi seperti Escape the Bubble Anda untuk Google Chrome bertujuan untuk membantu mengkurasi konten dan mencegah pengguna agar tidak hanya terpapar pada informasi yang bias, sementara ekstensi Mozilla Firefox seperti Lightbeam dan Self-Destructing Cookies memungkinkan pengguna untuk memvisualisasikan bagaimana data mereka dilacak, dan memungkinkan mereka menghapus beberapa cookie pelacakan. Beberapa menggunakan mesin pencari anonim atau tidak dipersonalisasi seperti YaCy, duckduckgo, StartPage, Disconnect, dan Searx untuk mencegah perusahaan mengumpulkan data pencarian web mereka. Harian Swiss Neue Zürcher Zeitung adalah pengujian beta aplikasi mesin berita yang dipersonalisasi yang menggunakan pembelajaran mesin untuk menebak konten apa yang diminati pengguna, sementara "selalu menyertakan elemen kejutan"; Idenya adalah untuk mencampur dalam cerita yang pengguna tidak mungkin mengikuti di masa lalu.
 
Uni Eropa mengambil langkah-langkah untuk mengurangi efek dari gelembung filter. Parlemen Eropa mensponsori pertanyaan tentang bagaimana gelembung filter mempengaruhi kemampuan orang untuk mengakses beragam berita. Selain itu, memperkenalkan program yang bertujuan untuk mendidik warga tentang media sosial. Di AS, panel CSCW menyarankan penggunaan aplikasi agregator berita untuk memperluas asupan berita konsumen media. Aplikasi agregator berita memindai semua artikel berita terkini dan mengarahkan Anda ke sudut pandang yang berbeda mengenai topik tertentu. Pengguna juga dapat menggunakan penyeimbang berita yang sadar-sadar, yang secara visual menunjukkan konsumen media jika mereka condong ke kiri atau ke kanan ketika membaca berita, menandakan bahwa Anda berhadapan dengan bar merah yang lebih besar atau bersandar kiri dengan bar biru yang lebih besar. Sebuah penelitian yang mengevaluasi penyeimbang berita ini menemukan "perubahan kecil dalam perilaku membaca, menuju keterpaparan yang lebih seimbang, di antara pengguna yang melihat umpan balik, dibandingkan dengan kelompok kontrol".
 
Oleh perusahaan media
 
Mengingat kekhawatiran baru-baru ini tentang penyaringan informasi di media sosial, Facebook mengakui adanya gelembung filter dan telah mengambil langkah untuk menghapusnya. Pada Januari 2017, Facebook menghapus personalisasi dari daftar Topik Trennya sebagai tanggapan atas masalah dengan beberapa pengguna yang tidak melihat acara yang sangat dibicarakan di sana. Strategi Facebook adalah membalikkan fitur Artikel Terkait yang telah diimplementasikan pada tahun 2013, yang akan memposting berita terkait setelah pengguna membaca artikel bersama. Sekarang, strategi yang diubah akan membalik proses ini dan memposting artikel dari perspektif yang berbeda pada topik yang sama. Facebook juga mencoba melalui proses pemeriksaan di mana hanya artikel dari sumber yang bereputasi baik yang akan ditampilkan. Seiring dengan pendiri Craigslist dan beberapa orang lain, Facebook telah menginvestasikan $ 14 juta ke dalam upaya "untuk meningkatkan kepercayaan dalam jurnalisme di seluruh dunia, dan untuk lebih menginformasikan percakapan publik". Idenya adalah bahwa bahkan jika orang hanya membaca posting yang dibagikan dari teman-teman mereka, setidaknya posting ini akan kredibel.
 
Demikian pula, Google, pada 30 Januari 2018, juga mengakui adanya kesulitan gelembung filter dalam platformnya. Karena penelusuran Google saat ini menarik hasil peringkat berdasarkan algoritme berdasarkan "keabsahan" dan "relevansi" yang menunjukkan dan menyembunyikan hasil penelusuran tertentu, Google berupaya untuk memerangi hal ini. Dengan melatih mesin pencarinya untuk mengenali maksud dari pencarian pencarian daripada sintaks literal dari pertanyaan, Google berusaha membatasi ukuran gelembung filter. Sampai sekarang, tahap awal pelatihan ini akan diperkenalkan pada kuartal kedua 2018. Pertanyaan yang melibatkan bias dan / atau opini kontroversial tidak akan dibahas sampai nanti, mendorong masalah yang lebih besar yang masih ada: apakah mesin pencari bertindak baik sebagai wasit kebenaran atau sebagai panduan berpengetahuan untuk membuat keputusan.
 
Pada bulan April 2017, muncul berita bahwa Facebook, Mozilla, dan Craig Craig memberikan kontribusi pada mayoritas donasi $ 14 juta untuk "Inisiatif Integritas Berita" CUNY, yang siap untuk menghilangkan berita palsu dan menciptakan lebih banyak media berita yang jujur.
 
Kemudian, pada bulan Agustus, Mozilla, yang layanannya menjadi tuan rumah mesin web Firefox, mengumumkan pembentukan Mozilla Inisiatif Kepercayaan Informasi (MITI). MITI akan berfungsi sebagai upaya kolektif untuk mengembangkan produk, penelitian, dan solusi berbasis masyarakat untuk memerangi efek dari gelembung filter dan proliferasi berita palsu. Tim Inovasi Terbuka Mozilla memimpin inisiatif, berjuang untuk memerangi kesalahan informasi, dengan fokus khusus pada produk berkaitan dengan keaksaraan, penelitian, dan intervensi kreatif.
 
Implikasi etis
 
Ketika popularitas layanan cloud meningkat, algoritma yang dipersonalisasi yang digunakan untuk membangun gelembung filter diharapkan menjadi lebih luas. Para sarjana mulai mempertimbangkan efek dari gelembung-gelembung filter pada para pengguna media sosial dari sudut pandang etis, khususnya mengenai bidang-bidang kebebasan pribadi, keamanan, dan bias informasi. Filter gelembung di media sosial populer dan situs pencarian yang dipersonalisasi dapat menentukan konten tertentu yang dilihat oleh pengguna, sering kali tanpa persetujuan atau kesadaran langsung mereka, karena algoritme yang digunakan untuk mengkurasi konten tersebut. Kritik penggunaan gelembung filter berspekulasi bahwa individu dapat kehilangan otonomi atas pengalaman media sosial mereka sendiri dan identitas mereka secara sosial dibangun sebagai akibat dari merebaknya gelembung filter.
 
Teknolog, insinyur media sosial, dan spesialis komputer juga telah memeriksa prevalensi gelembung filter. Mark Zuckerberg, pendiri Facebook, dan Eli Pariser, penulis The Filter Bubble, bahkan telah menyatakan keprihatinan mengenai risiko privasi dan polarisasi informasi. Informasi dari pengguna mesin pencari yang dipersonalisasi dan platform media sosial tidak bersifat pribadi, meskipun beberapa orang percaya itu seharusnya. Perhatian atas privasi telah menghasilkan perdebatan apakah atau tidak itu moral bagi teknologi informasi untuk mengambil aktivitas online pengguna dan memanipulasi paparan masa depan untuk informasi terkait.
 
Karena konten yang dilihat oleh pengguna media sosial individu dipengaruhi oleh algoritme yang menghasilkan gelembung filter, pengguna platform media sosial lebih rentan terhadap bias konfirmasi, dan dapat terkena bias, informasi menyesatkan. Penyortiran sosial dan praktik diskriminatif yang tidak disengaja lainnya juga diantisipasi sebagai hasil penyaringan yang dipersonalisasi.
 
Mengingat para penerima beasiswa presiden AS tahun 2016 juga telah menyatakan keprihatinan tentang efek gelembung filter pada demokrasi dan proses demokrasi, serta munculnya "media ideologis". Para sarjana ini khawatir bahwa pengguna tidak akan dapat "[berpikir] di luar kepentingan pribadi [mereka] yang sempit" karena gelembung filter membuat umpan sosial yang dipersonalisasi, mengisolasi mereka dari beragam sudut pandang dan komunitas sekitar mereka. Yang menarik adalah bagaimana gelembung filter memanipulasi umpan berita melalui algoritme, yang berkontribusi terhadap proliferasi "berita palsu" dan dapat memengaruhi kecenderungan politik, termasuk bagaimana pengguna memilih.
 
Revelations pada Maret 2018 dari pengumpulan dan penggunaan data pengguna Cambridge Analytica untuk setidaknya 87 juta profil Facebook selama pemilihan presiden 2016 menyoroti implikasi etis dari gelembung filter. Co-Founder dan whistleblower dari Cambridge Analytica Christopher Wylie, menjelaskan bagaimana perusahaan memiliki kemampuan untuk mengembangkan profil "psikografis" dari para pengguna dan menggunakan informasi tersebut untuk membentuk perilaku memilih mereka. Akses ke data pengguna oleh pihak ketiga seperti Cambridge Analytica dapat membuat gusar dan memperkuat gelembung yang telah dibuat oleh pengguna, secara artifisial meningkatkan bias yang ada dan membagi masyarakat lebih lanjut.
 
== Referensi ==