Il mio agente letterario è un algoritmo

DALLA RUBRICA CAVALLI DI TROJAN PER L’INDICE DEI LIBRI DEL MESE

Dal numero dell’Indice dei Libri del Mese di aprile 2017

Quasi mezzo secolo è passato da quando Chomsky scriveva le prime tesi sulla grammatica generativa e. Gli anni ’60 del novecento hanno visto un rapido evolversi dei linguaggi, idiomatici ma anche matematici e informatici. La scienze dell’informazione e dell’automazione in quegli anni affondano le proprie radici, le stesse che avrebbero poi costituito la rivoluzione dell’industria 4.0 in auge oggi. Ma se a un ingegnere di Ford poteva sembrare tutto sommato verosimile che nel futuro prossimo una macchina avrebbe sostituito tutti i suoi operai; risulta certamente difficile immaginare che Giulio Einaudi preventivasse il fatto che in quello stesso futuro, certi robot sono impiegati ad avvitare bulloni altri robot leggono – e selezionano – manoscritti.
Si chiama “data driven publishing” (editoria guidata dallo studio di dati aggregati) ed è uno degli orizzonti spaventosi e inconsueti che si stagliano davanti all’incerto futuro dell’editoria. L’analisi sulle opere letterarie non è tuttavia cosa nuova: Carlo Gozzi nel settecento aveva, in seguito a un ampio studio, ricondotto il numero delle trame possibili a 36. Secondo Christopher Booker, autore di The Seven Basic Plot Structures le trame scendono a 7. Stando però a una recente ricerca basata su 50 mila testi, condotta dal professore Matthew Jockers, dell’Università Nebraska-Lincon, solo il 10% dei risultati rispetto alle trame analizzate lascia pensare a sette archetipi di trame. Il 90% dei risultati lascia evincere che le trame archetipali siano solo 6.

bstar
Il professore spiega dunque come, ammessa la razionalizzazione delle trame-archetipo, sia possibile sperimentare una vera e propria fenomenologia rispetto agli aspetti commerciali, sociologici e, ovviamente, editoriali di un best seller; rispetto ai suoi lettori di riferimento e al suo contesto storico culturale. Questo renderebbe quasi possibile la prevedibilità, dato un insieme di testi inediti, rispetto a quali possibili trame possano attecchire meglio o peggio su un dato pubblico in un certo contesto. Una start up tedesca, Inkitt, ha scommesso proprio su questo tipo di tecnologia e ha deciso di puntare tutto sull’automazione dello scouting letterario. Inkitt sostiene di aver fatto un’analisi comparata molto approfondita relativa a numerose trame di storici best seller. Questo studio ha prodotto dei dati che, in seguito a una comparazione con i testi più contemporanei, sarebbero in grado di essere razionalizzati in un algoritmo programmato con lo scopo di individuare e predire quale manoscritto abbia le carte in regola per diventare il prossimo best seller.
Fantascienza? No, si chiama machine learning. O rete neurale profonda artificiale, dir si voglia.
La scienza informatica è giunta a un livello per il quale non solo le macchine possono vantare una potenza di calcolo inenarrabile, ma riescono anche a creare delle connessioni complesse fra i vari dati immagazzinati, creando internamente ciò che noi umani chiamiamo “conoscenza”. Il machine learning è ciò che permette alle intelligenze artificiali di sviluppare una capacità di analisi e di logica, sempre più critiche. Sempre più umane. E a quanto pare alcune già leggono e analizzano trame. Come nel caso appunto di Inkitt che, intanto, il suo primo “best seller” lo pubblicherà con, in co-edizione con Tor Books. L’uscita del primo libro di narrativa selezionato da un algoritmo sarà una adult fiction firmata da un texano, Eric Swan, e la sua uscita è prevista per l’estate di quest’anno. Si intitola Bright Star. Si spera che lo legga anche qualche umano.

Annunci

Ci stiamo disabituando alla privacy. Parola di Berners-Lee

Un quarto di secolo è ormai trascorso da quando Timothy John BernersLee inventò Internet. Lo aveva immaginato come un vero e proprio strumento di democratizzazione: una mastodontica piattaforma aperta che avrebbe permesso a tutti di connettersi e condividere informazioni con chiunque.
Se proviamo a pensare com’era vivere senza, ci rendiamo conto che Internet è stata una delle più grandi invenzioni di tutta la storia dell’umanità e ci ha reso possibili cose che prima si potevano solo raccontare nei romanzi di fantascienza. Ma ogni rivoluzione ha delle ombre e certe nascondono una crudele dittatura. Il fondatore del WWW individua tre pericolose criticità che mettono a rischio la vocazione democratica e comunitaria dell’Internet: la perdita di controllo sui nostri dati, la diffusione di notizie false e l’ eccessiva vicinanza tra politica e pubblicità.

Ci sarebbe tanto da scrivere su tutti e tre i problemi individuati da Tim.
Per una questione di pertinenza approfondiremo solo il primo punto, ovvero la perdita di controllo sui nostri dati personali; faccenda che sta molto a cuore anche -soprattutto!- a eMemory.

LEGGI IL MANIFESTO DI eMEMORY

Tim Berners-Lee spiega che diversi siti e servizi web offrono contenuti gratuiti in cambio di dati personali. I modelli di business di queste imprese “innovative” si basano proprio su quei dati confidenziali: sulla loro vendita e sulla profilazione degli utenti, al fine di fornire delle liste segmentate con una precisione utile a perfezionare le campagne marketing acquistate dai clienti.

Ed ecco come la semplice iscrizione a un forum o la sottoscrizione a un servizio gratuito, si tramuta nel medio periodo in chiamate dai call center e mail di spam a tutta birra.

Se a tutta questa bolgia di interessi privati, aggiungiamo poi il potere dei soggetti pubblici, il problema si inasprisce.

Il controllo dell’informazione già nel novecento era di per sé una delle caratteristiche dei regimi autoritari che cedevano il passo al controllo e alla coercizione,a discapito della libertà, che fosse di stampa, di parola o di pensiero. Le società, i governi e le istituzioni che raccolgono milioni di contatti, già oggi si stanno addentrando in un nuovo mondo del controllo, molto più vicino ai controllati e decisamente più invasivo e spaventoso.
Impallidirebbe Orwell nel sapere quante cose Google sa di noi. Di chi siamo, dove siamo, quando ci siamo, con chi e quanto tempo ci abbiamo messo per arrivare lì.
Avrebbe un mancamento Huxley vedendo come le persone si inebriano dei contenuti privati degli altri, regalandone a loro volta di propri. E quindi giù a postare i propri pensieri, i propri ricordi, le proprie foto sui server di un’azienda californiana come Facebook che null’altro fa se non profilarci il meglio possibile per vendere dei pacchetti pubblicitari sempre più efficienti.

Secondo Tim Berners-Lee infatti ci siamo desensibilizzati nei confronti della privacy e non comprendiamo più i vantaggi che avremmo dalla possibilità di avere il diretto controllo dei nostri dati e dalla possibilità di scegliere con chi e quando essi vengano condivisi.

This widespread data collection by companies also has other impacts. Through collaboration with — or coercion of — companies, governments are also increasingly watching our every move online and passing extreme laws that trample on our rights to privacy. In repressive regimes, it’s easy to see the harm that can be caused — bloggers can be arrested or killed, and political opponents can be monitored. But even in countries where we believe governments have citizens’ best interests at heart, watching everyone all the time is simply going too far.

L’informatico inglese fa certo riferimento ai recenti scandali riguardanti la CIA e gli abusi sulla privacy da parte dell’agenzia di Intelligence americana. Se riteniamo quindi fattuale e concreta la potenzialità di un totale controllo dell’informazione, anche di quella privata, attraverso la tecnologia, vedremo che non è necessario andare in Nord Corea per sentire il rumore della democrazia che langue.

Questo è uno dei principali motivi per il quale bisognerebbe valorizzare i servizi web che agiscono con trasparenza e sensibilizzano i loro utenti circa l’utilizzo e il controllo delle informazioni e dei dati personali.