Superintelligens
Vägar, faror, strategier

Nick Bostrom

:-55:-52:-:-
Alternativ
Detaljer
  • Utgiven 8 Augusti 2017
  • 520 Sidor
  • Översättare: Jim Jakobsson
  • Inbunden med skyddsomslag
  • ISBN: 9789187513084
  • Utgiven Mars 2020
  • 520 Sidor
  • ISBN: 9789188589897
  • Utgiven Mars 2020
  • ISBN: 9789177732075
Superintelligens, boundSuperintelligens, pocketSuperintelligens, ebookSuperintelligens, audiobook

Vad händer om vi en dag utvecklar maskiner med en intelligens överlägsen vår egen? Riskerar vi att tappa kontrollen över utvecklingen om artificiella superintelligenser sedan börjar utveckla sig själva? Med utvecklingen av artificiell intelligens står människans särställning – och i förlängningen hela den mänskliga civilisationen – på spel.

Nick Bostrom, filosof verksam vid universitetet i Oxford, presenterar en framtid där maskiner tänker själva och diskuterar de existentiella utmaningar mänskligheten då kan komma att ställas inför.

Med ett nyskrivet förord av Anders Hansen.

”Läsvärd… Vi måste vara mycket försiktiga med AI. Potentiellt farligare än kärnvapen.”

Elon Musk, grundare av SpaceX och Tesla

”Jag rekommenderar starkt den här boken. Artificiell intelligens är den stora drömmen för alla som någonsin varit verksamma inom datavetenskapen.”

Bill Gates

”Det råder inga tvivel om kraften i [Bostroms] argument … frågan är en forskarutmaning värdig nästa generations främsta matematiska talanger. Den mänskliga civilisationen står på spel.”

Clive Cookson, Financial Times

”Denna fantastiska analys av en av världens vassaste tänkare tar itu med en av mänsklighetens största utmaningar: Om framtidens artificiella intelligens blir den största händelsen i mänsklighetens historia, hur kan vi se till att det inte blir den sista?”

Max Tegmark, professor i fysik vid MIT

Detaljer
  • Utgiven 8 Augusti 2017
  • 520 Sidor
  • Översättare: Jim Jakobsson
  • Inbunden med skyddsomslag
  • ISBN: 9789187513084
  • Utgiven Mars 2020
  • 520 Sidor
  • ISBN: 9789188589897
  • Utgiven Mars 2020
  • ISBN: 9789177732075