Skip to content

Facebook: Nem a mi hibánk – tanulmány

2015. 05 21

Sok vitát kiváltó kutatás jelent meg a Science magazinban, melyet a Facebook statisztikai adatokkal foglalkozó csapata készített azokról a felhasználókról, akik vállalják az ideológiai hovatartozásukat. A kutatást felnőtt, amerikai Facebook felhasználókról készítették. A tanulmányból kiderült, hogy amikor a Facebookot használjuk, akkor algoritmikusan rangsoroljuk a folyamatosan frissülő híreket.

news-feed-final-blue-659x484

A tanulmány rámutatott arra is, hogy a felhasználók egy komoly hírre való kattintását – amelyet a fent említett algoritmus már szelektált – befolyásolja a tartalom elhelyezésének módja is. Ugyanarra a linkre 10-15 százalékkal nagyobb valószínűséggel kattintanak a felhasználók, ha a hírfolyam tetején helyezkedik el, mintha lejjebb lenne.

Az algoritmus megszűri azokat a forrásokat, amelyekkel „úgy gondolja” a felhasználó nem ért egyet, de nem veszi ki azokat, amelyekről „úgy véli,”hogy érdekelheti a felhasználót.

A cross-cutting olyan tartalom, amely különböző véleményeket reprezentál, olyan véleményeket, amelyek kevésbé érdeklik a felhasználót.

updated-facebook-algorithm

Az említett algoritmus segítségével a felhasználók tovább szűkítik saját korlátaikat. Tehát a felhasználók a megszűrt tartalmakat tovább szűkítik választásaikkal, ezzel elősegítve a polarizációt. Az emberek többnyire így is azokat a híreket olvassák el, amik hozzájuk közelebb állnak, de a szűrő segítségével ezen választások száma megsokszorozódik. Tehát az amúgy is polarizált társadalom polarizációját a Facebook még jobban felerősíti.

  1. Azoktól az emberektől, akiknek megadjuk a lehetőséget, hogy megválogassák a híreket, amiket olvasni akarnak, számíthatunk arra, hogy olyan forrásokat fognak választani, amikkel egyetértenek.
  2. A politikai polarizáció növekedése negatív folyamat.
  3. A Facebook hírfolyamának algoritmusa kismértékben gyorsítja a szelektivitást és a polarizációt a közösségi oldalon.

A cikk írója nem gondolja, hogy ez meglepő, hiszen mi más dolga lenne egy jól működő szűrő algoritmusnak, mint kiszűrni a felhasználó számára az őt érdeklő híreket. Ami igazán furcsa ebben a kutatásban, az a szokatlan tálalási mód a Facebook részéről. Ennek köszönhetően úgy kerülhet majd be ez a kutatás a történelembe, mint a “nem a mi hibánk – kutatás.”

Facebook: Nem a mi hibánk

open-source-plus-canvas-660x384

A Facebook nyilatkozatában az áll, hogy ők úgy gondolják, hogy a cross-cutting irányadó értékei alapján ők nem ítélik meg a felhasználókat. Ennek ellenére mégiscsak működtetik az algoritmust.

Széleskörű egyetértés van abban, hogy a változatos hírforrásokhoz való hozzájutás mindenkori megléte alapvető eleme a demokráciának. A kutatás felhívja a figyelmet a növekvő szelektivitás és polarizáció veszélyeire. A források hivatkozásai csak ez után az idézet után jelentik ki, hogy a vegyes források megléte nagyon fontos. A Facebook reakciója szerint:

“A normatív iskolák gyakran vitatják, hogy sokféleség lényegi eleme a jól működő demokráciának. Számos tanulmány úgy találja, hogy a cross-cuttingnak való kitettség összekapcsolódik a politikában való alacsonyabb részvétellel.”

A tanulmány írói azt állítják, hogy a jelenlegi kevertségnek a csökkentése jó és rossz is lehet. A cikk írója szerint ez csak rossz. Véleménye szerint nincs csoport, aki vitába szállhatna a politológusokkal arról, hogy mennyire fontos a hírforrások változatossága. Ugyanis ha csak azt látom, ami érdekel, kevésbé leszek politikailag aktív.

A Facebook azt mondja, hogy meggyőződésből készítették ezt a tanulmányt. Az egyéni választások fontosabbak, mint az algoritmus választásai. Emellett erős hatása van a befogadásnak is.

Mi vagyunk a 4%?

A tanulmány írói a következőképpen mutatták be a kutatást:

“Kihasználhatjuk a Facebookot, mint hatalmas és átfogó adatbázist.”

“Azt vizsgáltuk, hogy 10.1 millió amerikai Facebook felhasználó hogyan hat egymásra.”

Az író szerint ezek az állítások tényszerűen helyesek, azonban félrevezetőek is. Ha valaki felületesen olvassa a tanulmányt, az a benyomás érheti, hogy legalább 200 millió olyan amerikairól készítették a mintát, akik használták már a Facebookot. Valójában azonban nem a teljes amerikai Facebook felhasználó populációról csinálták. A válogatási procedúráról nincs szó a cikkben, helyette a függelékben fejtik ki, hogy kikről is szól a kutatás.

Tehát a kutatás azt sugallja, hogy teljes, de valójában nem reprezentatív, mert nem valószínűségi mintavételt végeztek, ennek megfelelően a kutatásban a populáció bizonyos csoportjai nem vehettek részt.

A kritériumok, amelyek alapján az alanyokat kiválasztották a következők voltak:

  1. „18 éves vagy annál idősebb.”
  2. „7 napból legalább 4-szer bejelentkezik Facebookra.”
  3. „Legalább egy interaktív linket megosztott Facebookon, amit mi “kemény hírnek” határolunk be.
  4. „Ideológiai hovatartozás megjelölése, értelmezhető módon.”

Ez utóbbi nagyon jelentőségteljes. Ki jelzi az ideológiai hovatartozását a profilján?

Kiderült, hogy a Facebook felhasználók csupán 9 százaléka teszi ezt. Azokból, akik jelölték hovatartozásukat, egyedül 46 százaléka jelezte úgy, hogy az értelmezhető legyen. Ez azt jelenti, hogy ez a tanulmány arról a 4 százalék Facebook felhasználóról szól, akik meglehetősen kilógnak a sorból, mert mások tudtára akarják adni politikai nézeteiket a profiljukon.

Algoritmus: Természetes elem?

A tanulmány egy fura összehasonlítás az önálló választások és az algoritmus által determinált választások között. Úgy kéne olvasni, hogy „dolgok, amiket én választok” azzal a hatással szemben, amit „a Facebook algoritmusa akar nekem” a tudtom vagy a beleegyezésem nélkül. Azonban nem hasonlíthatnak össze cikkek ajánlása és a saját választásunk alapján, mert a feltételek nem egyenlőek.

9314f528-0305-4d39-a2ea-690f8f5d6bbc-620x372

A cikk írója küzdött azzal, hogyan tálalja a cikket, mert a kutatás az algoritmusról úgy beszél, mint egy természetes elemről, vagy természetesen történő folyamatról, amely folyamatnak valójában nem kéne olyan természetesnek lennie.

Szerinte a Facebook egy olyan magánvállalat, amely komoly mindennapos problémákkal küzd. Egyesek a legkevésbé népszerű cégnek ítélik meg, jelenleg is komoly kormányzati vizsgálatokkal néz szembe, mert sok országban vizsgálják jogellenes gyakorlatai kapcsán. Néhány ilyen dolog gyökere a manipulált hírfeltöltésekre vezethető vissza. Ebből a szempontból nem tűnik túl bölcs dolognak, hogy az adatokat eltúlozzák. Különösen akkor, amikor egy tanulmány eredményét – a saját tanulmányukét – úgy állítják be, miszerint a Facebook algoritmusa kis mértékben szelektál és polarizál, vagyis mintha nem is csinálná egyáltalán.

Forrás: Social Media Collective

 

 Fordította: Balázs Barbara

 

Reklámok
No comments yet

Vélemény, hozzászólás?

Adatok megadása vagy bejelentkezés valamelyik ikonnal:

WordPress.com Logo

Hozzászólhat a WordPress.com felhasználói fiók használatával. Kilépés / Módosítás )

Twitter kép

Hozzászólhat a Twitter felhasználói fiók használatával. Kilépés / Módosítás )

Facebook kép

Hozzászólhat a Facebook felhasználói fiók használatával. Kilépés / Módosítás )

Google+ kép

Hozzászólhat a Google+ felhasználói fiók használatával. Kilépés / Módosítás )

Kapcsolódás: %s

%d blogger ezt kedveli: