Il giorno in cui il computer scrive il romanzo

DALLA RUBRICA CAVALLI DI TROJAN PER L’INDICE DEI LIBRI DEL MESE

Dal numero dell’Indice dei Libri del Mese di maggio 2017

Lo scorso mese avevamo parlato delle intelligenze artificiali che leggono, analizzano e categorizzano le trame, scelgono quali manoscritti pubblicare. Questo mese andiamo dall’altro lato della scrivania e parliamo delle macchine che scrivono narrativa. I software di scrittura automatica non sono di certo una novità.
Già da qualche anno questa tipologia di software è ricorrente nella attività editoriali digitali, soprattutto nel mondo delle news e dei comunicati. Fino a qualche anno fa gli esperimenti sulle intelligenze artificiali venivano, per l’appunto, condotti su testi non letterari; le notizie, gli articoli web, gli articoli di approfondimento e lo UGC (User Generated Content) costituivano il materiale che veniva dato in pasto alle IA affinché queste ultime fossero in grado di produrre del contenuto originale. I software di scrittura automatica per certi contenuti e certe mansioni vengono ampiamente utilizzati, riducendo lo sforzo di redazione umano. Oggi si pensa a estendere verticalmente il campo di scrittura assegnato alle macchine, sino a varcare la sacra soglia della narrativa, e, perché no, provare a far scrivere a una macchina qualche racconto breve, magari un romanzetto. Coloro che pensano che la letteratura sia una prerogativa umana stanno per subire un brusco risveglio e la tanto divinizzata e ipostatizzata “creatività”, risulta sempre più come una condizione statistica e non metafisica.
Altresì siamo portati ad associare l’idea di “creatività” a certi strascichi semantici dell’idealismo tedesco (genio, ispirazione, arte, eccettera). Tuttavia la ricerca sta procendendo verso una direzione secondo la quale la creatività potrebbe essere null’altro che un risultato matematico dato da una combinazione di informazioni filtrate e ordinate secondo una certa capacità critica e estetica, a sua volta deducibile dalla provenienza geografica e storico-culturale del soggetto.

robot scrittore
Proprio a questo proposito, Margaret Sarlej nel 2014 aveva condotto uno studio per l’Università australiana di New South Wales che aveva dato vita a MOSS (Moral Storytelling System). MOSS è un software in grado di scrivere favole in autonomia partendo da una determinata “morale” che si vuole trasmettere al lettore. MOSS può spaziare fra 22 emozioni che gli permettono di dare maggior profondità ai personaggi e un più forte coinvolgimento rispetto alla trama, oltre al fatto di garantire una coerenza con la morale prescelta al momento dell’avvio. Benché il software presenti alcune criticità e patisca certi casi di ambiguazione rispetto a personaggi, eventi o luoghi, il risultato del contenuto prodotto in automatico è sorprendente ed è senz’altro una storica base per il mondo delle writing machine.
D’altro canto, i problemi dati dalle ambiguazioni sono spesso causa della mancanza di un “senso comune” da parte della macchina: se un umano, per esempio, vede un altro umano in uno stato di sofferenza, questo evento generà nella mente del primo tristezza o pietà; una macchina deve essere istruita sulla tipologia di evento e sulla consequenzialità dell’emozione da provare (secondo il senso comune). Questo processo, alza l’asticella della complessità ma al tempo stesso ci aiuta a studiare come funziona la nostra mente e come procede nell’associazioni di informazioni il cervello umano, anche per quanto riguarda lo sforzo creativo.
Forse il risultato più significativo è stato raggiunto da un team giapponese di ricercatori della Future University Hakodate, i quali hanno iscritto al concorso letterario Nikkei Hoshi Shinichi (unico concorso aperto non solo a umani ma anche robot, animali e alieni) un computer, autore di un romanzo breve. I ricercatori giapponesi hanno fornito alla macchina modelli letterari più dettagliati, pre-settando personaggi ed eventi per dare più precisione alla redazione della storia e minimizzare i casi di ambiguità. Sta di fatto che l’opera dell’Intelligenza Artificiale ha superato le prime selezioni del concorso ed è giunta, con grande sorpresa di tutti, in finale. Sono stati presentati 1,450 romanzi di cui 11 robotici ma solo «Il giorno in cui il computer scrive un romanzo» è stato scelto.
Il romanzo della macchina, termina così: «Mi contorcevo di gioia, che ho sperimentato per la prima volta, e ho continuato a scrivere per l’eccitazione. Il giorno in cui un computer ha scritto un romanzo. Il computer, mettendo la priorità sulla ricerca della propria gioia ha smesso di funzionare per l’uomo».
Promessa o profezia?

Il mio agente letterario è un algoritmo

DALLA RUBRICA CAVALLI DI TROJAN PER L’INDICE DEI LIBRI DEL MESE

Dal numero dell’Indice dei Libri del Mese di aprile 2017

Quasi mezzo secolo è passato da quando Chomsky scriveva le prime tesi sulla grammatica generativa e. Gli anni ’60 del novecento hanno visto un rapido evolversi dei linguaggi, idiomatici ma anche matematici e informatici. La scienze dell’informazione e dell’automazione in quegli anni affondano le proprie radici, le stesse che avrebbero poi costituito la rivoluzione dell’industria 4.0 in auge oggi. Ma se a un ingegnere di Ford poteva sembrare tutto sommato verosimile che nel futuro prossimo una macchina avrebbe sostituito tutti i suoi operai; risulta certamente difficile immaginare che Giulio Einaudi preventivasse il fatto che in quello stesso futuro, certi robot sono impiegati ad avvitare bulloni altri robot leggono – e selezionano – manoscritti.
Si chiama “data driven publishing” (editoria guidata dallo studio di dati aggregati) ed è uno degli orizzonti spaventosi e inconsueti che si stagliano davanti all’incerto futuro dell’editoria. L’analisi sulle opere letterarie non è tuttavia cosa nuova: Carlo Gozzi nel settecento aveva, in seguito a un ampio studio, ricondotto il numero delle trame possibili a 36. Secondo Christopher Booker, autore di The Seven Basic Plot Structures le trame scendono a 7. Stando però a una recente ricerca basata su 50 mila testi, condotta dal professore Matthew Jockers, dell’Università Nebraska-Lincon, solo il 10% dei risultati rispetto alle trame analizzate lascia pensare a sette archetipi di trame. Il 90% dei risultati lascia evincere che le trame archetipali siano solo 6.

bstar
Il professore spiega dunque come, ammessa la razionalizzazione delle trame-archetipo, sia possibile sperimentare una vera e propria fenomenologia rispetto agli aspetti commerciali, sociologici e, ovviamente, editoriali di un best seller; rispetto ai suoi lettori di riferimento e al suo contesto storico culturale. Questo renderebbe quasi possibile la prevedibilità, dato un insieme di testi inediti, rispetto a quali possibili trame possano attecchire meglio o peggio su un dato pubblico in un certo contesto. Una start up tedesca, Inkitt, ha scommesso proprio su questo tipo di tecnologia e ha deciso di puntare tutto sull’automazione dello scouting letterario. Inkitt sostiene di aver fatto un’analisi comparata molto approfondita relativa a numerose trame di storici best seller. Questo studio ha prodotto dei dati che, in seguito a una comparazione con i testi più contemporanei, sarebbero in grado di essere razionalizzati in un algoritmo programmato con lo scopo di individuare e predire quale manoscritto abbia le carte in regola per diventare il prossimo best seller.
Fantascienza? No, si chiama machine learning. O rete neurale profonda artificiale, dir si voglia.
La scienza informatica è giunta a un livello per il quale non solo le macchine possono vantare una potenza di calcolo inenarrabile, ma riescono anche a creare delle connessioni complesse fra i vari dati immagazzinati, creando internamente ciò che noi umani chiamiamo “conoscenza”. Il machine learning è ciò che permette alle intelligenze artificiali di sviluppare una capacità di analisi e di logica, sempre più critiche. Sempre più umane. E a quanto pare alcune già leggono e analizzano trame. Come nel caso appunto di Inkitt che, intanto, il suo primo “best seller” lo pubblicherà con, in co-edizione con Tor Books. L’uscita del primo libro di narrativa selezionato da un algoritmo sarà una adult fiction firmata da un texano, Eric Swan, e la sua uscita è prevista per l’estate di quest’anno. Si intitola Bright Star. Si spera che lo legga anche qualche umano.

Ci stiamo disabituando alla privacy. Parola di Berners-Lee

Un quarto di secolo è ormai trascorso da quando Timothy John BernersLee inventò Internet. Lo aveva immaginato come un vero e proprio strumento di democratizzazione: una mastodontica piattaforma aperta che avrebbe permesso a tutti di connettersi e condividere informazioni con chiunque.
Se proviamo a pensare com’era vivere senza, ci rendiamo conto che Internet è stata una delle più grandi invenzioni di tutta la storia dell’umanità e ci ha reso possibili cose che prima si potevano solo raccontare nei romanzi di fantascienza. Ma ogni rivoluzione ha delle ombre e certe nascondono una crudele dittatura. Il fondatore del WWW individua tre pericolose criticità che mettono a rischio la vocazione democratica e comunitaria dell’Internet: la perdita di controllo sui nostri dati, la diffusione di notizie false e l’ eccessiva vicinanza tra politica e pubblicità.

Ci sarebbe tanto da scrivere su tutti e tre i problemi individuati da Tim.
Per una questione di pertinenza approfondiremo solo il primo punto, ovvero la perdita di controllo sui nostri dati personali; faccenda che sta molto a cuore anche -soprattutto!- a eMemory.

LEGGI IL MANIFESTO DI eMEMORY

Tim Berners-Lee spiega che diversi siti e servizi web offrono contenuti gratuiti in cambio di dati personali. I modelli di business di queste imprese “innovative” si basano proprio su quei dati confidenziali: sulla loro vendita e sulla profilazione degli utenti, al fine di fornire delle liste segmentate con una precisione utile a perfezionare le campagne marketing acquistate dai clienti.

Ed ecco come la semplice iscrizione a un forum o la sottoscrizione a un servizio gratuito, si tramuta nel medio periodo in chiamate dai call center e mail di spam a tutta birra.

Se a tutta questa bolgia di interessi privati, aggiungiamo poi il potere dei soggetti pubblici, il problema si inasprisce.

Il controllo dell’informazione già nel novecento era di per sé una delle caratteristiche dei regimi autoritari che cedevano il passo al controllo e alla coercizione,a discapito della libertà, che fosse di stampa, di parola o di pensiero. Le società, i governi e le istituzioni che raccolgono milioni di contatti, già oggi si stanno addentrando in un nuovo mondo del controllo, molto più vicino ai controllati e decisamente più invasivo e spaventoso.
Impallidirebbe Orwell nel sapere quante cose Google sa di noi. Di chi siamo, dove siamo, quando ci siamo, con chi e quanto tempo ci abbiamo messo per arrivare lì.
Avrebbe un mancamento Huxley vedendo come le persone si inebriano dei contenuti privati degli altri, regalandone a loro volta di propri. E quindi giù a postare i propri pensieri, i propri ricordi, le proprie foto sui server di un’azienda californiana come Facebook che null’altro fa se non profilarci il meglio possibile per vendere dei pacchetti pubblicitari sempre più efficienti.

Secondo Tim Berners-Lee infatti ci siamo desensibilizzati nei confronti della privacy e non comprendiamo più i vantaggi che avremmo dalla possibilità di avere il diretto controllo dei nostri dati e dalla possibilità di scegliere con chi e quando essi vengano condivisi.

This widespread data collection by companies also has other impacts. Through collaboration with — or coercion of — companies, governments are also increasingly watching our every move online and passing extreme laws that trample on our rights to privacy. In repressive regimes, it’s easy to see the harm that can be caused — bloggers can be arrested or killed, and political opponents can be monitored. But even in countries where we believe governments have citizens’ best interests at heart, watching everyone all the time is simply going too far.

L’informatico inglese fa certo riferimento ai recenti scandali riguardanti la CIA e gli abusi sulla privacy da parte dell’agenzia di Intelligence americana. Se riteniamo quindi fattuale e concreta la potenzialità di un totale controllo dell’informazione, anche di quella privata, attraverso la tecnologia, vedremo che non è necessario andare in Nord Corea per sentire il rumore della democrazia che langue.

Questo è uno dei principali motivi per il quale bisognerebbe valorizzare i servizi web che agiscono con trasparenza e sensibilizzano i loro utenti circa l’utilizzo e il controllo delle informazioni e dei dati personali.

L’editore degli editori

DALLA RUBRICA CAVALLI DI TROJAN PER L’INDICE DEI LIBRI DEL MESE
Leggi l’articolo originale sull’Indice.

di Federico Bottino

dal numero dell’Indice dei Libri del Mese di marzo 2017

Alcuni editori sostengono che il digitale è marginale. La cosa è in parte vera, in parte falsa. Se si parla del libro come oggetto, risultato di una filiera produttiva che dall’editore giunge alle librerie passando per tipografie e reti distributive, allora è vera. È invece falsa o, perlomeno, fuorviante se si intende il libro come testo, il testo come fonte d’informazione e l’informazione come insieme aggregato di dati accessibili.

Se un editore utilizza il web per farsi conoscere, le informazioni vengono distribuite attraverso i siti e i suoi testi (o le anteprime) vengono raggiunti, e letti e usati, per mezzo dei siti stessi. Nella sua accezione tradizionale, l’editore è un collettore di contenuti. Oggi gli editori si trovano a essere non solo collettori, ma soprattutto contenuti, collezionati a loro volta da collettori digitali, assai più grandi. Negli ultimi anni alcuni soggetti della filiera produttiva del libro-oggetto (in primis le librerie, in parte gli editori stessi) hanno puntato il dito contro i nuovi colossi della distribuzione come Amazon, colpevoli di fagocitare il mercato librario risputandolo dimagrito e globalizzato. Se invece si considera la questione nel secondo modo (libro-testo-fonte di informazioni) non è Amazon il grande livellatore, il titanico editore che divora i suoi figli è Facebook.

images

Controllo delle fake news e instant articles, la rivoluzione

La campagna elettorale di Donald J. Trump si è svolta quasi totalmente sulle piattaforme social ed è stata vinta a colpi di fake news e contenuti editoriali studiati ad hoc per scaldare gli animi degli elettori americani. Così, per la prima volta, il fondatore di Facebook ha parlato apertamente della necessità di controllare i contenuti editoriali diffusi sul suo social network. Nel mirino di Mark Zuckerberg sono dunque finiti i contenuti violenti e le notizie false che attirano l’attenzione di utenti superficiali per gonfiare di traffico siti pieni di pubblicità. È stato così costituito uno staff apposito per la nuova sezione notizie di Facebook (newsfeed). A dirigerla Campbell Brown, ex Cnn, che ha annunciato la formazione di un ente terzo e imparziale con funzioni di garante rispetto alle segnalazioni delle notizie false. Insomma, Facebook si dota di un comitato editoriale. Ma da quando il social network è diventato un editore o, meglio, “l’editore degli editori”? “Non produciamo i nostri contenuti ma ci limitiamo a distribuirli e monetizzarli tramite la pubblicità”, diceva Sheryl Sandberg, attuale capo delle operazioni di Facebook, rassicurando gli editori del fatto che Facebook mai sarebbe stato uno di loro. La dichiarazione risale al 2015, durante il lancio degli instant articles, un’implementazione del social network che permette agli utenti la lettura degli articoli delle più grandi testate internazionali, direttamente all’interno della struttura web di Facebook. Eppure nemmeno l’editore Scribner’s ha mai scritto una riga di Fiesta: si è limitato a distribuirlo e monetizzarlo. Gli editori di tutto il mondo con ingenua leggerezza aderiscono agli instant articles, trasformando il sito di Zuckerberg nell’“l’editore degli editori” e permettendogli, tramite i suoi algoritmi, di filtrare, nascondere o cassare i contenuti editoriali di tutto il mondo. Ed è appunto nella metodologia di selezione e distribuzione che troviamo la nuova natura di questa editoria 3.0.

La grande differenza fra l’editoria tradizionale e la post-editoria di cui Facebook è l’indiscusso campione è teleologica. Se da una parte c’è un’intentio culturale e umanistica, dall’altra c’è un telos commerciale e autoreferenziale. Lo sforzo di Facebook non mira infatti all’accrescimento culturale degli individui ma all’aumento del tempo medio di permanenza degli individui sul proprio sito. “L’editore degli editori” non segue criteri editoriali storico-culturali, bensì identitari e quantitativi. È una macchina programmata per domare i contenuti, trovare i loro specifici utenti, ghermirli e, nella luminosità degli schermi, incatenarli

Federico Bottino

47th Lunch Seminar @ Nexa Center – Internet and Society

Copyright e contenuti intellettuali: l’esperienza di Yeerida – Federico Bottino (ceo Yeerida)

Con gentilezza, Francesco Ruggiero mi ha invitato a tenere un Lunch Seminar presso il centro Nexa, in gennaio. Alla sua richiesta rispetto a quale fosse l’argomento che preferissi trattare, ho risposto che sarebbe stato interessante parlare di come siamo abituati a concepire il copyright e come saremo costretti a vederlo trasformarsi. Yeerida, il primo sito per leggere gratis contenuti editoriali, ne è d’altronde esempio fulgido.
L’evento si terrà mercoledì 25 gennaio dalle ore 13 fino alle 14. Potrete sentirmi blaterare sulle evoluzioni (in senso di piroette)del copyright e del suo gemello scemo, il diritto d’autore, mentre trangugiate bocconi. Imperdibile, insomma.
Questo è il link all’evento di Event Brite (è possibile prenotarsi, entro oggi). Qui invece potete visitare la pagina Facebook ufficiale del Nexa.

Segue il link per la diretta streaming sul portale del Politecnico di Torino: http://nexa.polito.it/upcoming-events

Riporto qui una breve introduzione presente sul sito del Nexa, al fine di introdurre il mio intervento di mercoledì.

Il terzo millennio ha portato grandi cambiamenti nelle nostre abitudini e nei nostri gesti quotidiani, cambiando il nostro modo di intendere cose che prima sembravano semplici.
Nel caso del copyright dei contenuti intellettuali, eravamo abituati a proiettare la nostra idea di contenuto nel corpo fisico del media che lo avrebbe diffuso. Un testo letterario veniva visto come un libro, una composizione come un cd, un articolo come un foglio di giornale, un corto o lungo-metraggio come una pellicola.
Le moderne tecnologie di diffusione di contenuti come lo streaming e il web 2.0 ci costringono a fare lo sforzo di separare queste due entità che abbiamo sempre tenuto insieme, intendendo l’informazione intellettuale come assoluta e indipendente, rispetto al suo (facoltativo) supporto fisico.
Tutto ciò ci costringe a pensare a nuove strutture del diritto d’autore e dei diritti connessi che guardi non più, prevalentemente, al possesso dell’oggetto fisico che distribuisce l’informazione, bensì all’utilizzo o la semplice fruizione dell’informazione stessa.

Biografia di Federico Bottino:

Federico José Bottino ha 24 anni e si occupa di comunicazione digitale e scrittura creativa. Dopo essersi diplomato presso il liceo classico di Susa, ha studiato Giurisprudenza, collaborando con lo studio legale Ciurcina-Tita. Pubblica una raccolta di racconti nel 2013, da allora è autore per diverse testate online, curando blog su cultura, spettacolo e innovazione. Nel 2015 ha ideato e fondato Yeerida, la prima piattaforma di free streaming letterario, a oggi ricopre il ruolo di CEO di Yeerida Italia s.r.l.
Nel 2015 abbandona giurisprudenza per studiare ICT.

Questo articolo verrà aggiornato e il video della diretta sarà embeddato in fondo, casomai qualcuno fosse interessato a fruirne dei contenuti ma non avrà modo di essere presente mercoledì.

Cos’è il Nexa Center:

Il Centro Nexa su Internet & Società del Politecnico di Torino (Dipartimento di Automatica e Informatica) è un centro di ricerca indipendente e interdisciplinare che studia Internet e il suo effetto sulla società. Il Centro Nexa nasce dalle attività di un gruppo di lavoro multidisciplinare – tecnico, giuridico ed economico – formatosi a Torino nel 2003 e che da allora ha ideato, progettato e realizzato diverse iniziative, tra cui: Creative Commons Italia (2003-presente), CyberLaw Torino (2004), Harvard Internet Law Program Torino (2005), SeLiLi il servizio licenze libere per creatori e programmatori (2006-2013), COMMUNIA, la rete tematica europea sul pubblico dominio digitale finanziata dall’Unione Europea (2007-2011), Neubot, progetto di ricerca sulla neutralità della rete (2008-presente), e LAPSI, la rete tematica europea sulle informazioni del settore pubblico, anch’essa finanziata dall’Unione Europea (2010-2012). Il Centro Nexa ha inoltre svolto un ruolo chiave nel lancio, nel maggio 2010, di uno dei primi portali di dati pubblici in Europa, http://dati.piemonte.it. Da ottobre 2014 ad ottobre 2016 il Centro Nexa ha coordinato il Global Network of Internet & Society Research Centers (NoC), rete che favorisce la cooperazione tra i più importanti centri Internet & Società a livello globale.

Nel mese di aprile 2012, il Centro Nexa ha inaugurato “Rivoluzione Digitale”, corso del primo anno presso il Politecnico di Torino incentrato sul tema “Internet & Società”, interamente progettato dal co-direttore del Centro Nexa, Juan Carlos De Martin e realizzato coinvolgendo diversi membri dello staff del Centro Nexa, nonché ospiti esterni.

Il Centro Nexa interagisce con la Commissione europea, organismi regolatori, governi locali e nazionali, nonché con imprese e altre istituzioni – attento a preservare la sua indipendenza accademica e intellettuale e con un riguardo specifico per gli aspetti di policy delle proprie ricerche.

I Garanti del Centro Nexa – tra i quali il prof. Charles Nesson, co-fondatore e co-direttore del Berkman Center for Internet & Society della Harvard University, e altri eminenti studiosi ed esperti – si riuniscono a Torino almeno una volta l’anno per valutare l’attività compiuta nei dodici mesi precedenti e per dare al Centro Nexa (direttori, staff e fellow) il ì beneficio del loro giudizio in merito al lavoro svolto e alle priorità per il futuro.

 

 

Per restare aggiornati sulle attività del Centro Nexa su Internet & Società:

– Twitter: @nexacenter
– Facebook: http://facebook.com/nexa.center
– Mailing list degli annunci Nexa: https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa-announce

L’ AI di google translate inventa un nuovo linguaggio per tradurre meglio.

Leggi l’articolo originale su Quotidiano Piemontese.

A inizio settimana scrivevo di Amazon Go e di come i cassieri farebbero bene a trovarsi un qualcosa di meglio da fare. Oggi ripropongo la stessa riflessione ai traduttori e interpreti. Visto che l’Intelligenza Artificiale di Google ha appena inventato un nuovo linguaggio (interlinguaggio) per migliorare la qualità (e l’efficienza) della traduzione.
Ricordo la mia professoressa di greco. Ci preparava alla maturità classica. Ci citava Gilles Mènage e diceva che una traduzione poteva essere bella e infedele oppure brutta e fedele. Si riferiva alla caratteristica letterale o libera della traduzione; aveva in testa i grandi autori greci e latini. Ci preparava alla maturità.
Che fosse bella o brutta, fedele o infedele, tutti hanno sempre pensato che la capacità di tradurre da una lingua all’altra, non tralasciando quelle sfumature idiomatiche spesso difficili da rendere nella lingua in cui si traduce, fosse unicamente una prerogativa umana. Abbiamo canzonato per anni google translate e la sua (in)capacità di fare una traduzione decente.

Oggi però Google Translate ha raggiunto una storica tappa nella fantascientifica trama che vede la macchina avvicinarsi all’uomo e alle sue capacità umane. L’IA di Google Translate fonda un nuovo linguaggio per aiutarsi a tradurre meglio da una lingua all’altra.

https://www.facebook.com/plugins/video.php?href=https%3A%2F%2Fwww.facebook.com%2Ftechinasia%2Fvideos%2F1273081122730298%2F&show_text=0&width=400

Lo stesso video spiega come sia stato possibile per l’IA di Google “inventare” un nuovo linguaggio per facilitarsi a tradurre i “paia” di idiomi coinvolti e fa un interessante raffronto con la comunanza logica fra coreano e giapponese.
In sostanza, per una macchina lo sforzo di ricreare ogni combinazione possibile fra i varie lingue è talmente arduo che è la macchina stessa a utilizzare una interlingua con cui confrontarsi con l’idioma di provenienza, per poi tradurre da questa stessa interlingua verso l’idioma desiderato. Questo concetto non è nuovo e lo troviamo spesso citato nei testi riguardanti la traduzione automatica appellato come Lingua Pivot , risale circa agli anni ’50 e la sua metodologia è utilizzata da molti metodi di traduzione, operando sui testi tradotti veri e propri parsing.
Quello che dunque deve farci brillare gli occhi è il fatto che a inventare questa nuova lingua pivot, non sia stato un ricercatore o un dottore di linguistica e traduzione, bensì un (super)computer. Il linguaggio di Google Translate è creato da Google Translate e compreso solo da Google Translate stesso.
La vera rivoluzione consiste nel merito degli ingegneri informatici di aver introdotto nei sistemi di Google Translate una rete neurale capace di analizzare le frasi come blocchi unici e non più come insieme di elementi ab soluti.
Per esempio se la rete neurale ha imparato a tradurre dall’Italiano al Giapponese e dal Giapponese all’Inglese, conseguentemente la rete sarà in grado di tradurre dall’Italiano all’Inglese. Questo permette quindi al sistema di Google Translate di scalare il sistema rapidamente e tradurre in un numero sempre maggiore di linguaggi, aumentando la velocità di analisi e la qualità dell’output.

Al di là del fascino di star vedendo nascere un vero linguaggio comune universale, quello che ci deve far riflettere è la reale possibilità da parte delle IA di raggiungere risultati paragonabili a quelli umani, dissipandone l’esclusività.

Secondo i ricercatori di Google non c’è dubbio sul fatto che il team di Google Translate sarà in grado di allenare una singola macchina di rete neurale volta alla traduzione che funziona su più di 100 lingue. E parlano di un futuro prossimo. Molto prossimo.
Rincara la dose il co-fondatore di Tilde, il quale assicura che la tecnologia di traduzione neurale funziona già bene e già sta portando dei risultati, specie quando andiamo a trattare testi semplici. Mette un po’ le mani avanti dicendo che comunque rimaniamo a un punto nel quale la traduzione umana può cogliere differenze semantiche, sfumature idiomatiche e caratteristiche lessicali che per una moltitudine di fattori che per ora sfuggono al calcolo degli algoritmi sono difficili da determinare. Ancher per un supercomputer.

Google Translate a oggi supporta 103 lingue e ogni giorno traduce più di 140 miliardi di parole ogni giorno.

Pensabile quindi che l’attività di traduzione sia sempre più rivolta alla consulenza , al fine di allenare sistemi di deep learning o per controlli ex post. Questo per lasciare spazio alle macchine, così che possano imparare da noi a essere migliori di noi.

Pebble fa ciaone a tutti e scappa via con il big cash

Leggi l’articolo originale su Quotidiano Piemontese.

Pebble fa ciaone a tutti e scappa con i soldi di Fitbit.
Quando si suole dire che ognuno di noi, ogni idea, ogni impresa, ogni prodotto, ogni persona ha un presso, si dice il vero.
Ce ne ricorderemo quando penseremo al caso Pebble .
Il colosso del werable, Fitbit ha appena acquisito la start up approdata su kickstarter qualche anno fa, acquistando gli asset tecnologici relativi ai software e al know how sviluppato dai tecnici di Pebble.
Il silenzio del blog di Pebble era stato visto con sospetto dai curiosi che iniziavano a vociferare circa la possibile e prossima exit in favore di un qualche big.
C’è che sappiamo è che l’acquisizione degli asset di Pebble è stata compiuta nella giornata del 6 dicembre, senza che venisse pubblicamente comunicato il valore dell’operazione. Ciononostante nei giorni precedenti si è parlato di un esborso cash di circa 30-40 milioni di dollari, anche se l’indiscrezione si riferiva prevalentemente all’acquisizione dell’intera società. Avendo percò Fitbit, acquisito solo asset specifici di Pebble, non si è presa in carico l’onere dei debiti della società, che saranno probabilmente sanati con la liquidità maturata con il controvalore dell’acquisizione.

Pebble nel suo blog precisa alcuni aspetti: si scusa con gli utenti per il suo lungo silenzio e specifica alcuni aspetti del futuro della start up. Già oggi non si possono ordinare nuovi Pebbles dal sito della startup che ha anche organizzato un sistema di rimborso per coloro che hanno aderito alla campagna di kickstarter ma non riceveranno nessuna ricompensa.

Innanzitutto Pebble non promuoverà, né distribuirà, né svilupperà nuovi smartwhatch.
I dispositivi fin’ora venduti continueranno a funzionare normalmente: non sono previsti immediati cambiamenti.
Prevedibile tuttavia che i servizi Pebble vengano ridotti e inficiati in futuro per cercare di far migrare i customers verso la gamma di smart-things di FitBit.
Nel frattempo ieri sera è arrivata anche la conferma da parte del CEO di Fitbit, James Park, che ha detto
“Pebble è stata un’apripista del più grande, aperto e neutro sistema operativo per dispositivi connessi che andrà a complementare la compatibilità multi-piattaforma di Fitbit, che ad oggi conta 200 dispositivi, tra iOS, Android e Windows Phone […] Con gli indossabili di base che diventano sempre più smart e gli smartwatch che aggiungono funzionalità health e fitness, vediamo l’opportunità di costruire sui nostri punti di forza ed estendere la nostra posizione di leadership nella categoria dei wearables. Con questa acquisizione siamo ben posizionati per accelerare l’espansione della nostra piattaforma e dell’ecosistema per rendere Fitbit una parte vitale della vita quotidiana per un più ampio numero di consumatori, così come costruire gli strumenti che i fornitori di servizi sanitari hanno bisogno per integrare in maniera più significativa la tecnologia indossabile nelle cure preventive e croniche”

Sempre più evidente dunque il fatto che il mercato del tech stia abbandonando la sua vocazione di concorrenza pura e perfetta, come si auspicava alla fine degli anni ’90, per consolidarsi in un oligopolio in mano a big. I quali non investano nuovi capitali in ricerca e sviluppo ma investono in start up per poi acquisirne gli assets.
New economy? Nah.

Amazon Go: in negozio senza casse. Chi ha paura?

Leggi l’ articolo originale su Quotidiano Piemontese.

Alla presentazione di YourDigital ieri si è parlato di AmazonGo. Raffaele Gaita spiegava i meccanismi che portano l’innovazione a cambiare e/o reinterpretare il mercato, creando nuove abitudini e nuove differenze.
Fino a qui, tutto bello.
Raffaele ha citato altri esempi di trasformazione digitale: Kodak, Blackberry, Blockbuster. Tuttavia l’iniziativa di Amazon – sarà perché è di fatto agli albori – mi ha colpito più delle altre. In effetti mi ha affascinato moltissimo. Ma mi ha anche fatto interrogare su quanto dobbiamo essere (diventare, necessariamente) flessibili sulle nostre idee di innovazione, lavoro e automatizzazione.

Che Cos’è Amazon Go?

Amazon ha deciso di rivoluzionare il mondo degli shop e dei retails creando il suo nuovo servizio, Amazon Go che sfrutta le tecnologie di screen vision, deep learning e sensor.
Negli shop di Amazon Go non ci saranno file, non ci saranno casse. Non ci saranno cassieri. I consumatori entreranno nel negozio, prenderanno quello che serve loro e usciranno (they actually walk out).
Il progetto verrà lanciato nel 2017 a Seattle 2131 7th Ave, Seattle, WA, all’angolo con 7th Avenue and Blanchard Street.

Come funziona Amazon Go

La sfida di Amazon, iniziata 4 anni fa, era questa: “offrire l’esperienza di un negozio senza limiti, barriere o checkout (casse e scontrini)”.
Per farlo Amazon ha ideato un ambiente nel quale incrocia tre tecnologie di riconoscimento, apprendimento e analisi di dati e, certamente, di data mining.
Il compratore al suo arrivo al negozio Amazon, passa sopra un scanner il proprio telefono attivando il proprio Amazon Account. Dopo essersi registrato, saranno i software a riconoscere quali prodotti il consumatore ha preso e portato via, quanto ha speso e fatturare al consumatore il conto in digitale, direttamente tramite il proprio Amazon Account.

I dati raccolti da Amazon saranno sempre di più.

Perchè è esattamente questo il punto.
Dopo essere diventato il più grande negozio on line e aver tracciato le compravendite dell’intero mondo per più di 15 anni, Amazon ora vuole varcare le frontiere del digitale e approdare su supporti analogici. Questo, per quanto sia a livello imprenditoriale avvincente, in un discorso sociologico è quantomeno direzionato al monopolio dei dati, nell’ambito degli acquisti e delle vendite. La tecnologia di Amazon Go infatti non sarà solamente in grado di digitalizzare e smaterializzare gli scontrini, sarà anche capace di raccogliere dati circa il tempo e l’ordine di acquisto dei prodotti, la loro periodicità, i trend di vendita dei prodotti, la capacità di acquisto dei consumatori.
E qui non stiamo parlando dell’Istat. Qui stiamo parlando di Amazon, che conoscerà come spendiamo i nostri soldi, meglio di chiunque altro.

I cassieri devono avere paura di Amazon Go?

Sì devono. Questo tipo di tecnologia si dimostrerà largamente conveniente per le multinazionali degli stores e Amazon sarà il primo della fila a spingere questo cambiamento.
Chiunque conosca l’ambiente dei magazzini di Amazon, sa che la catena produttiva è incentrata su impianti automatici che costringono i “magazzinieri” che ci lavorano (picker) a correre – letteralmente correre – da un punto all’altro per rispettare i tempi che il sistema di produzione impone loro.
Loro stessi, che ci lavorano, sanno che verranno sostituiti dalle macchine non appena il machine learning sarà a un punto tale da permettere la piena automazione del lavoro nei magazzini, che richiede capacità di scelta critica e di spostamento fisico di oggetti.
Amazon Go dimostra che se si riesce a portare il consumatore direttamente all’interno di quello che in realtà è un magazzino Amazon, posso far lavorare solo le macchine, sollevando l’uomo dalla necessarietà dell’impiego.
Evidente dunque quanto ci sia bisogno di riflettere su un sistema di welfare che sia preparato a dare qualcosa da fare (e da spendere) a quelle persone che a livello professionale, in questo preciso momento storico-tecnologico, varranno meno o quanto una macchina. Che sembra brutto da dire, ma è proprio ciò che dobbiamo chiederci.
“Nel momento in cui siamo di fronte al fatto che certi (molti, sempre più) lavori potranno essere condotti con maggior efficacia da una macchina o un sistema di macchine, noi che famo?”

Core Values. Il Vaticano che sfida la complessità del web – Per QP

[Leggi l’articolo completo su Quotidiano Piemontese – Core Values]

Siamo a Roma io e Jacopo Maria Vassallo, quel 4 di novembre. Ci siamo alzati presto, per recarci a Core Values. Dopo una non proprio breve passeggiata e una colazione, un po’ troppo repentina per essere chiamata “colazione”, eccoci finire i resti di un croissant, con le schiene appoggiati a mura non più Italiane. I nostri sguardi si arrampicano sull’obelisco di Piazza San Giovanni in Laterano. Ci circonda il rumore di mercedes e audi nere che fanno il giro della piazza e si fermano solo per scaricare top manager e chairman da tutto il mondo. Noi, che siamo arrivati a piedi, ce ne saremo poi andati con un normalissimo taxi bianco.
Ci mettiamo in fila e conosciamo un professore dell’Università di Perugia che si occupa di complessità. Gli stiamo simpatici, decide di sedersi vicino a noi. Con lui avremmo poi commentato una parte della conferenza e ci saremmo dunque fatti una minima idea di quanto ardua sia la sfida lanciata dal Vaticano, raccolta dai padroni della comunicazione digitale internazionale: la trasmissione dei valori nell’era tecnologica del digitale.

Core Values Yeerida
ph. F. Bottino

Cos’è Core Values

Core Values è un’iniziativa promossa e patrocinata dalla Segreteria per le Comunicazioni della Santa Sede, recentemente inaugurata da Papa Francesco, dalla Pontificia Università Lateranense e dalla Tela Digitale. Lo scopo dell’iniziativa e far sorgere, alimentare e dunque promuovere una riflessione sulla necessarietà di infondere valori nelle comunicazione digitali, al fine di dare i giusti strumenti etici alle nuove generazioni.
Le menti del Vaticano propongono una ben ampia domanda: “quali sono le trasformazioni che la rivoluzione digitale porta con sé, quali i valori che ci devono sostenere?”.
Non penso di fare nessuno spoiler, se vi dico che nessuno fra i big presenti ha saputo fornire una risposta anche solo lontanamente soddisfacente.
L’incontro si è svolto nell’ Aula Magna Benedetto XVI .

15218407_10211259894322810_196241041_n

I relatori hanno spiegato come si possono sfruttare le nuove tecnologie per indurre gli utenti ad assumere atteggiamenti responsabili. Hanno fatto, a esempio, vedere il prototipo di una chiave d’accensione di un’automobile che funziona solo se il tasso alcolico del guidatore è a norma di legge.
Hanno parlato di come il digitale può dare nuova rilevanza e nuove analisi a problemi sociologici che affliggono la nostra società. Hanno discorso su come la comunicazione attraverso mezzi digitali sia una potente occasione per incanalare messaggi in un sistema media many to many. Si è citato l’importantissimo ruolo del carattere multimediale dei contenuti e quindi di nuove forme di narrazione e comunicazione interattiva. In certi casi di comunicazione all’interno di una realtà aumentata, e dunque delle nuove frontiere della proiezione identitaria degli individui, non più online, bensì onlife: una dimensione in cui vita digitale e analogica si mischiano e si aumentano vicendevolmente, espandendosi una nei confini dell’altra.

I relatori hanno spiegato come si possono sfruttare le nuove tecnologie per indurre gli utenti ad assumere atteggiamenti responsabili. Hanno fatto ad esempio vedere il prototipo di una chiave d’accensione di un’automobile che funziona solo se il tasso alcolico del guidatore è a norma di legge.
Hanno parlato di come il digitale può dare nuova rilevanza e nuove analisi a problemi sociologici che affliggono la nostra società. Hanno discorso su come la comunicazione attraverso mezzi digitali sia una potente occasione per incanalare messaggi in un sistema media many to many. Si è citato l’importantissimo ruolo del carattere multimediale dei contenuti e quindi di nuove forme di narrazione e comunicazione interattiva. In certi casi di comunicazione all’interno di una realtà aumentata, e dunque delle nuove frontiere della proiezione identitaria degli individui, non più online, bensì onlife: una dimensione in cui vita digitale e analogica si mischiano e si aumentano vicendevolmente, espandendosi una nei confini dell’altra.

La fisicità dei valori versus la complessità del web

Perché è questo, secondo me, uno dei punto principali.
Mi spiego, approfondendo la ragione della mia domanda sulla stratificazione delle informazioni.
Per prendere un esempio caro alla Chiesa, parlando dunque di Valori Cristiani, facciamo riferimento a un sistema assiologico talmente consolidato che si interseca così tanto con la nostra immaginazione etica, da diventare cultura. Questo processo di culturalizzazione dei valori, viene reso possibile dalla presenza di testi fisici che descrivono l’applicazione di questi valori. Questi testi danno ai valori una cosmologia credibile (soprattutto per la cultura di riferimento). Questa fa sì che i valori vengano ripresi in testi satellite o indipendenti, talvolta conseguenti, che si fondano però sullo stesso sistema assiologico. Un esempio di questa subordinazione assiologica fra due opere conseguenti e di natura differente è dato dal rapporto fra il Nuovo Testamento e la Divina Commedia di Dante.
La Divina Commedia riprende dei valori descritti nel suo testo di riferimento (il Nuovo Testamento) e li ripropone dandone una lettura, per l’epoca, moderna.
A sua volta la Divina Commedia giunge a noi grazie a testi di studio, critica e citazione, contribuendo alla formazione della nostra cultura; che di fatto è cristianizzata.
Vige sempre, tuttavia, la fisicità del supporto mediatico (testo), il quale, nella sua fisicità, trova rimedio alla stratificazione delle informazioni successive.
Il web non ha ancora ovviato a questo problema, ovvero il sistema di raccolta delle informazioni e quindi dei testi non applica dei filtri per manipolare la permanenza di questo testo nel flusso principale di informazioni. Questo fa sì che un’informazione, anche testuale, non possa da sola consistere nel fondamento (o nella perpetuazione) di un valore. E che a sua volta quest non sia in grado di esercitare un’ influenza culturale sufficientemente proiettata nel lungo periodo, da permettere la nascita di contenuti satellite conseguenti, che hanno la funzione di ammodernare i valori e dar loro nuovi fruitori e nuovi orizzonti.
Il flusso continuo di informazioni eterogenee, assieme alla loro conseguente stratificazione, è solo uno degli aspetti della complessità del web.
I valori hanno bisogno di un manifesto sempre accessibile per sussistere. Per diffondere questo manifesto e, affinché sia efficace, dobbiamo prima chiederci come affiggerlo in alto, laddove nessuno possa metterci sopra qualcos’altro.
Riusciremo a civilizzare (in senso stretto) l’internet solo quando questo smetterà di essere un non-luogo e quindi verrà trattato come una vera e propria estensione territoriale, che necessita degli stessi processi teoretici, che sono stati necessari per intendere il mondo analogico nella sua natura complessa.
Che, fuori metafora, vorrebbe poi dire:
“prima troviamo un modo per affrontare e governare il web semantico nella sua reale complessità al fine di rendere i giusti contenuti sempre accessibili, con facilità, al fine di creare un meccanismo vero di diffusione culturale, poi pensiamo a quali valori infondergli”.
Come fare?
Non ne ho idea.