Face Book manipola i post per verificarne le reazioni alle emozioni stesse reazioni

0

Per la sociologia e’ una manna , ma e’ anche sconcertante, anche se, diciamo la verita’, Positanonews e altre testate lo sanno  . posti una notizia di un certo tipo e si suscitano determinate reazioni ed emozioni,  ma addirittura alterare i post per studiare le reazioni no, Repubblica Tecnologia ha fatto un servizio interessante che vi proponiamo  “I DATI di Facebook rappresentano il più ampio studio sul campo nella storia del mondo”. Forse con un pizzico di esagerazione, ma in fondo cogliendo nel segno, Adam Kramer  –  membro del Data science team del social network  –  aveva spiegato anni fa la scelta di entrare nel gruppo californiano. Lo studio appena pubblicato suProceedings of the national academy of sciences e condotto insieme ad altri scienziati della University of California e della Cornell gli dà ragione. È infatti attraverso quella sterminata arena sociale planetaria che ha potuto dare sostanza a ciò che in molti sospettavano: ciò che gli altri postano su Facebook, e che noi visualizziamo in bacheca, ci influenza emotivamente. Tanto da spingerci, nel periodo successivo, a pubblicare a nostra volta contenuti sulla stessa lunghezza d’onda. O meglio, ad allinearci al clima che si respira sulla nostra newsfeed.
 

Facebook manipola i post e dimostra che le “emozioni sono contagiose”

Navigazione per la galleria fotografica

1 di 12
Immagine PrecedenteImmagine Successiva
Slideshow

L’obiettivo era esattamente quello: capire se l’esposizione a manifestazioni verbali affettive possa condurre “a espressioni verbali simili”. In altre parole, se ciò che leggiamo sulla piattaforma di Menlo Park  –  frutto di un certosino lavoro di algoritmi e non del caso, bisogna ricordarlo  –  possa contagiarci emotivamente. 

Due i test condotti nel gennaio 2012. Nel primo i ricercatori guidati da Kramer hanno ridotto l’esposizione degli utenti inclusi nel gruppo sperimentale ai contenuti positivi degli amici. Nel secondo hanno proceduto allo stesso tipo di schermatura ma con post e frasi contenenti elementi di negatività. Decidendo quali dei tre milioni di aggiornamenti di stato lasciar passare attraverso un software di analisi testuale, il Linguistic inquiry and word count, e analizzando poi le pubblicazioni per una settimana.

In effetti dai 689mila account inclusi nel monumentale esperimento è uscito quanto già intuiamo  –  altrimenti perché faremmo fuori hater di professione, rompiscatole o frustrati incalliti?  –  ma in precedenza poche indagini avevano provato in modo così significativo. Veicolare certi tipi di contenuti, escludendo termini e parole positivi o negativi, ha condotto a una conseguente riduzione dello stesso tenore nei post delle varie cerchie prese in esame. In particolare quando sono state artificialmente ridotte le positività. 

La ricerca è stata realizzata in base alle autorizzazioni fornite dagli utenti nella Data use policy al momento dell’iscrizione e senza dunque sottoporre a ricercatori in carne e ossa alcun contenuto effettivo. Almeno così assicura il team che ci ha lavorato. Il dato interessante sta tuttavia, oltre che nel merito  –  già sondato per esempio da un’indagine da Ke Xu, professore di computer scienceall’università di Pechino, sui social cinesi  –  anche e soprattutto nel metodo. Inquietante quanto, appunto, in fondo già ampiamente noto. 

Dimostra infatti gli effetti che si possono ottenere manipolando gli algoritmi che scelgono cosa mostrarci quando accediamo a Facebook. Non solo, dunque, atteggiamenti, scelte e profilazione per indirizzare acquisti e preferenze: lo studio uscito su Pnas prova come anche le emozioni siano non solo contagiose  –  non serve la scienza, basta uscire la sera con un amico giù di corda o un altro particolarmente brillante per capirlo  –  ma di fatto manipolabili. Almeno in quell’universo parallelo ma sempre più intrecciato delle piattaforme sociali. Siamo troppo suggestionabili, cantava Paolo Benvegnù qualche anno fa, per riuscire a sottrarci alla dittatura degli algoritmi. Che ci ritagliano il mondo a loro uso e consumo. 

Non mancano le polemiche su questo esperimento fatto sul social network più popolare. In passato erano stati fatti altri studi comportamentali ma i ricercatori avevano lavorato sulla semplice analisi del flusso naturale. Questa volta è stato diverso: per la prima volta sono stati alterati i dati per registrare le reazioni. Facebook ribadisce che lo studio è assolutamente legale. Ma alla domanda su quanto sia etico una risposta ancora non c’è.

Per la sociologia e' una manna , ma e' anche sconcertante, anche se, diciamo la verita', Positanonews e altre testate lo sanno  . posti una notizia di un certo tipo e si suscitano determinate reazioni ed emozioni,  ma addirittura alterare i post per studiare le reazioni no, Repubblica Tecnologia ha fatto un servizio interessante che vi proponiamo  "I DATI di Facebook rappresentano il più ampio studio sul campo nella storia del mondo". Forse con un pizzico di esagerazione, ma in fondo cogliendo nel segno, Adam Kramer  –  membro del Data science team del social network  –  aveva spiegato anni fa la scelta di entrare nel gruppo californiano. Lo studio appena pubblicato suProceedings of the national academy of sciences e condotto insieme ad altri scienziati della University of California e della Cornell gli dà ragione. È infatti attraverso quella sterminata arena sociale planetaria che ha potuto dare sostanza a ciò che in molti sospettavano: ciò che gli altri postano su Facebook, e che noi visualizziamo in bacheca, ci influenza emotivamente. Tanto da spingerci, nel periodo successivo, a pubblicare a nostra volta contenuti sulla stessa lunghezza d'onda. O meglio, ad allinearci al clima che si respira sulla nostra newsfeed.
 

L'obiettivo era esattamente quello: capire se l'esposizione a manifestazioni verbali affettive possa condurre "a espressioni verbali simili". In altre parole, se ciò che leggiamo sulla piattaforma di Menlo Park  –  frutto di un certosino lavoro di algoritmi e non del caso, bisogna ricordarlo  –  possa contagiarci emotivamente. 

Due i test condotti nel gennaio 2012. Nel primo i ricercatori guidati da Kramer hanno ridotto l'esposizione degli utenti inclusi nel gruppo sperimentale ai contenuti positivi degli amici. Nel secondo hanno proceduto allo stesso tipo di schermatura ma con post e frasi contenenti elementi di negatività. Decidendo quali dei tre milioni di aggiornamenti di stato lasciar passare attraverso un software di analisi testuale, il Linguistic inquiry and word count, e analizzando poi le pubblicazioni per una settimana.

In effetti dai 689mila account inclusi nel monumentale esperimento è uscito quanto già intuiamo  –  altrimenti perché faremmo fuori hater di professione, rompiscatole o frustrati incalliti?  –  ma in precedenza poche indagini avevano provato in modo così significativo. Veicolare certi tipi di contenuti, escludendo termini e parole positivi o negativi, ha condotto a una conseguente riduzione dello stesso tenore nei post delle varie cerchie prese in esame. In particolare quando sono state artificialmente ridotte le positività. 

La ricerca è stata realizzata in base alle autorizzazioni fornite dagli utenti nella Data use policy al momento dell'iscrizione e senza dunque sottoporre a ricercatori in carne e ossa alcun contenuto effettivo. Almeno così assicura il team che ci ha lavorato. Il dato interessante sta tuttavia, oltre che nel merito  –  già sondato per esempio da un'indagine da Ke Xu, professore di computer scienceall'università di Pechino, sui social cinesi  –  anche e soprattutto nel metodo. Inquietante quanto, appunto, in fondo già ampiamente noto. 

Dimostra infatti gli effetti che si possono ottenere manipolando gli algoritmi che scelgono cosa mostrarci quando accediamo a Facebook. Non solo, dunque, atteggiamenti, scelte e profilazione per indirizzare acquisti e preferenze: lo studio uscito su Pnas prova come anche le emozioni siano non solo contagiose  –  non serve la scienza, basta uscire la sera con un amico giù di corda o un altro particolarmente brillante per capirlo  –  ma di fatto manipolabili. Almeno in quell'universo parallelo ma sempre più intrecciato delle piattaforme sociali. Siamo troppo suggestionabili, cantava Paolo Benvegnù qualche anno fa, per riuscire a sottrarci alla dittatura degli algoritmi. Che ci ritagliano il mondo a loro uso e consumo. 

Non mancano le polemiche su questo esperimento fatto sul social network più popolare. In passato erano stati fatti altri studi comportamentali ma i ricercatori avevano lavorato sulla semplice analisi del flusso naturale. Questa volta è stato diverso: per la prima volta sono stati alterati i dati per registrare le reazioni. Facebook ribadisce che lo studio è assolutamente legale. Ma alla domanda su quanto sia etico una risposta ancora non c'è.