Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Salvato in 210 liste dei desideri
disponibilità immediata disponibilità immediata
Info
Superintelligenza. Tendenze, pericoli, strategie
26,60 € 28,00 €
LIBRO
Venditore: laFeltrinelli
+270 punti Effe
-5% 28,00 € 26,60 €
disp. immediata disp. immediata
Chiudi
Altri venditori
Prezzo e spese di spedizione
ibs
26,60 €
disponibilità immediata disponibilità immediata
Info
Nuovo
Altri venditori
Prezzo e spese di spedizione
ibs
26,60 €
disponibilità immediata disponibilità immediata
Info
Nuovo
Altri venditori
Prezzo e spese di spedizione
Chiudi
Superintelligenza. Tendenze, pericoli, strategie - Nick Bostrom - copertina
Chiudi

Descrizione


Il libro che ha lanciato nel mondo l'allarme di un'Intelligenza Artificiale fuori controllo

«Lo consiglio vivamente.» - Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l'Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare-» - Elon Musk

«Non c'è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana.» - Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell'umanità.: se l'Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l'ultimo?» - Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell'Intelligenza Artificiale. Non ha firmato quell'appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L'Intelligenza Artificiale è una delle più grandi promesse dell'umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici. E tuttavia c'è una nube minacciosa sopra il cielo dell'Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un'eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l'avremo costruita? Se lo scopo dell'attuale ricerca sull'Intelligenza Artificiale è quello di costruire delle macchine fornite di un'intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero. Per questo - sostiene Bostrom - dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l'Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.
Leggi di più Leggi di meno

Dettagli

2018
11 gennaio 2018
522 p., Brossura
9788833929019
Chiudi

Indice

Indice

La favola incompiuta dei passeri
Prefazione
Ringraziamenti
Elenco delle figure, elenco delle tabelle, elenco dei riquadri

I. Sviluppi del passato e capacità attuali
Modalità di crescita e grande storia - Grandi aspettative - Stagioni di speranza e di disperazione - Stato dell'arte - Opinioni sul futuro dell'intelligenza delle macchine

II. Le vie per arrivare alla superintelligenza
Intelligenza artificiale - Emulazione globale del cervello - Cognizione biologica - Interfacce cervello-computer - Reti e organizzazioni - Riassunto

III. Forme di superintelligenza
Superintelligenza di grande velocità - Superintelligenza collettiva - Superintelligenza di qualità - Portata diretta e indiretta - Fonti di vantaggio per l'intelligenza digitale

IV. La cinetica di un'esplosione di intelligenza
Tempi e velocità del decollo - Resistenza - Percorsi che non hanno a che fare con l'intelligenza digitale - Percorsi legati alle emulazioni e all'IA - Potere di ottimizzazione ed esplosività

V. Vantaggio strategico decisivo
Il progetto in prima posizione otterrà un vantaggio strategico decisivo? - Quanto sarà grande il progetto che avrà successo? - Monitoraggio - Collaborazione internazionale - Dal vantaggio strategico decisivo al singleton

VI. Superpoteri cognitivi
Funzionalità e superpoteri - Uno scenario di presa del potere da parte di un'IA - Potere sulla natura e sugli agenti

VII. La volontà superintelligente
La relazione tra intelligenza e motivazione - Convergenza strumentale - Autoconservazione - Integrità del contenuto dell'obiettivo - Potenziamento cognitivo - Perfezionamento della tecnologia - Acquisizione di risorse

VIII. Il risultato di default è la rovina?
La catastrofe esistenziale è il risultato di default di un'esplosione d'intelligenza - La svolta insidiosa - Modalità di guasto maligno - Istanziazione malvagia - Profusione di infrastrutture - Crimine mentale

IX. Il problema del controllo
Due problemi di agenzia - Metodi di controllo delle capacità - Metodi di contenimento - Metodi di incentivazione - Impedimento dello sviluppo - Tripwires - Metodi di selezione delle motivazioni - Specificazione diretta - Domesticità - Normatività indiretta - Incremento - Sinossi

X. Oracoli, geni, monarchi, strumenti
Oracoli - Geni e monarchi - Strumenti - Confronto

XI. Scenari multipolari
Dei cavalli e degli uomini - Retribuzioni e disoccupazione - Capitale e benessere - Il principio malthusiano in una prospettiva storica - Crescita della popolazione e investimenti - Vivere in un'economia algoritmica - Schiavitù volontaria, morte accidentale - Il lavoro superefficiente sarebbe piacevole? - Esternalizzatori inconsci? - L'evoluzione non è necessariamente terminata - Formazione post-transizione di un singleton? - Una seconda transizione - Superorganismi ed economie di scala - Unificazione mediante un trattato

XII. L'acquisizione dei valori
Il problema del caricamento dei valori - Selezione evolutiva - Apprendimento per rinforzo - Accumulo associativo dei valori - Impalcatura motivazionale - Apprendimento dei valori - Modulazione delle emulazioni - Progettazione delle istituzioni - Sinossi

XIII. La scelta dei criteri di scelta
La necessità della normatività indiretta - Volontà estrapolata coerente - Qualche spiegazione - Ragioni a favore della VEC - Altre osservazioni - Modelli di moralità - Fai ciò che intendo - Elenco delle componenti - Contenuto dell'obiettivo - Teoria della decisione - Epistemologia - Ratifica - Avvicinarsi abbastanza

XIV. Il quadro strategico
Strategia scientifica e tecnologica - Sviluppo tecnologico differenziale - Ordine di arrivo preferito - Tassi di cambiamento e potenziamento cognitivo - Accoppiamenti tecnologici - Gioco d'anticipo - Percorsi e abilitatori - Effetti dei progressi dell'hardware - Si dovrebbe promuovere la ricerca sull'emulazione globale del cervello? - La prospettiva relativa alle persone favorisce la velocità - Collaborazione - La dinamica di competizione e i suoi pericoli - Sui benefici della collaborazione - Lavorare insieme

XV. Il momento cruciale
Filosofia con una scadenza - Che cosa occorre fare? - Cercare la luce strategica - Sviluppare buone capacità - Misure particolari - Chiamata a raccolta del meglio della natura umana

Postfazione
Indice analitico

Conosci l'autore

Nick Bostrom

1973, Helsingborg

Nick Bostrom (Helsingborg, Svezia, 1973), laureato in filosofia, fisica e neuroscienze computazionali, è docente alla Oxford University, dove dirige il Future of Humanity Institute, da lui fondato; un centro di ricerca interdisciplinare che permette a un gruppo di matematici, filosofi e scienziati eccezionali di pensare alle priorità globali e alle grandi questioni dell'umanità. Sempre a Oxford, dirige anche lo Strategic Artificial Intelligence Research Center. Bostrom è autore di più di 200 pubblicazioni specialistiche e di diversi libri, tra i quali Anthropic Bias (2002), Global Catastrophic Risks (2008) e Human Enhancement (2009). Superintelligenza. Tendenze, pericoli, strategie - bestseller del New York Times - è il suo primo libro tradotto in...

Chiudi
Aggiunto

L'articolo è stato aggiunto al carrello

Cerca Cerca
Cerca
Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Chiudi

Chiudi

Siamo spiacenti si è verificato un errore imprevisto, la preghiamo di riprovare.

Chiudi

Verrai avvisato via email sulle novità di Nome Autore