Superintelligenza. Tendenze, pericoli, strategie - Nick Bostrom - copertina
Superintelligenza. Tendenze, pericoli, strategie - Nick Bostrom - copertina
Dati e Statistiche
Salvato in 215 liste dei desideri
Letteratura: Svezia
Superintelligenza. Tendenze, pericoli, strategie
Disponibilità immediata
12,00 €
-20% 15,00 €
12,00 € 15,00 € -20%
Disponibilità immediata

Descrizione


Il libro che ha lanciato nel mondo l'allarme di un'Intelligenza Artificiale fuori controllo

«Lo consiglio vivamente.» - Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l'Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare-» - Elon Musk

«Non c'è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana.» - Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell'umanità.: se l'Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l'ultimo?» - Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell'Intelligenza Artificiale. Non ha firmato quell'appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L'Intelligenza Artificiale è una delle più grandi promesse dell'umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici. E tuttavia c'è una nube minacciosa sopra il cielo dell'Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un'eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l'avremo costruita? Se lo scopo dell'attuale ricerca sull'Intelligenza Artificiale è quello di costruire delle macchine fornite di un'intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero. Per questo - sostiene Bostrom - dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l'Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.

Informazioni dal venditore

Venditore:

Libreria La Chiave
Libreria La Chiave Vedi tutti i prodotti

Informazioni:

<p>522 p. ; 22 cm.</p> 9788833929019 Molto buono (Very Good) tagli bruniti, interno lievemente brunito, esemplare ben conservato..

Dettagli

2018
528 p., Brossura
9788833929019

Conosci l'autore

Foto di Nick Bostrom

Nick Bostrom

1973, Helsingborg

Nick Bostrom (Helsingborg, Svezia, 1973), laureato in filosofia, fisica e neuroscienze computazionali, è docente alla Oxford University, dove dirige il Future of Humanity Institute, da lui fondato; un centro di ricerca interdisciplinare che permette a un gruppo di matematici, filosofi e scienziati eccezionali di pensare alle priorità globali e alle grandi questioni dell'umanità. Sempre a Oxford, dirige anche lo Strategic Artificial Intelligence Research Center. Bostrom è autore di più di 200 pubblicazioni specialistiche e di diversi libri, tra i quali Anthropic Bias (2002), Global Catastrophic Risks (2008) e Human Enhancement (2009). Superintelligenza. Tendenze, pericoli, strategie - bestseller del New York Times - è il suo primo libro tradotto in...

Informazioni e Contatti sulla Sicurezza dei Prodotti

Le schede prodotto sono aggiornate in conformità al Regolamento UE 988/2023. Laddove ci fossero taluni dati non disponibili per ragioni indipendenti da Feltrinelli, vi informiamo che stiamo compiendo ogni ragionevole sforzo per inserirli. Vi invitiamo a controllare periodicamente il sito www.lafeltrinelli.it per eventuali novità e aggiornamenti.
Per le vendite di prodotti da terze parti, ciascun venditore si assume la piena e diretta responsabilità per la commercializzazione del prodotto e per la sua conformità al Regolamento UE 988/2023, nonché alle normative nazionali ed europee vigenti.

Per informazioni sulla sicurezza dei prodotti, contattare productsafety@feltrinelli.it