Nick Bostrom: Razlika med redakcijama

Izbrisana vsebina Dodana vsebina
mBrez povzetka urejanja
Vrstica 1:
{{wikificiraj}}
{{infopolje oseba}}
''Niklas "Nick" Bostrom''', [https://sl.wikipedia.org/wiki/%C5%A0vedska švedski[Švedišvedski] [[filozof]], * [[10. marec]] [[1973]], [[Helsingborg]], [[Švedska]].
 
NickUvrščamo Bostromga spada v šolomed [https://sl.wikipedia.org/wiki/Analiti%C4%8Dna_filozofija[analitična filozofija|analitične filozofijefilozofe]]. Znan je po svojem delu na področjih: [https://sl.wikipedia.org/wiki/Bioetika [bioetika|bioetike]], eksistencialnih tveganj, [https://sl.wikipedia.org/wiki/Antropi%C4%8Dno_na%C4%8Delo[antropično načelo|antropičnega načela]], etiki izboljšanja človeškega telesa s tehnologijo, tveganjih, zaradiki superinteligencjih prinaša [[umetna inteligenca]] in simulacijskega argumenta.
 
==Življenje in šolanje==
 
Nick Bostrom se je rodil kot Niklas Boström leta 1973 v Helsingborgu na Švedskem. Želel se je izobraževati na najrazličnejših področjih, vključno z antropologijo, umetnostjo, literaturo in znanostjo. Šole v mladih letih ni maral, zato se je zadnje leto srednje šole šolal doma. 1994 je na [[Univerza v Göteborgu|Univerzi v Göteborgu]] diplomiral iz filozofije, matematike, logike in umetne inteligence. Magistriral je iz filozofije in fizike na [[Univerza v Stockholmu|Univerzi v Stockholmu]]. Kasneje je diplomiral še iz računalništva na [[King's College]] Londonv Londonu. Leta 2000 je doktoriral iz filozofije na londonski [[London School of Economics|LSE]]. V letih 2000–2002 je predaval na [[Univerza Yale|Univerzi Yale]] in sodeloval tudi z [[Univerza v Oxfordu|Univerzo Oxford]]. Danes je profesor na Univerzi Oxford.
Bostrom je večkratni TED-ov govornik. Opravil je tudi več kot 2000 intervjujev s televizijo, radijem, tiskanimi mediji, Youtuberji in drugimi množičnimi občili. Kot podiplomski študent se je v londonskem krogu preizkusil tudi v stand-up komediji.
= Delo =
 
Bostrom je večkratni [[TED (konference)|TED-ov]] govornik. Opravil je tudi več kot 2000 intervjujev s televizijo, radijem, tiskanimi mediji, Youtuberji in drugimi množičnimi občili. Kot podiplomski študent se je v londonskem krogu preizkusil tudi v stand-up komediji.
Danes je profesor na [https://sl.wikipedia.org/wiki/Univerza_v_Oxfordu Univerzi v Oxfordu]. Tam je ustanovil Inštitut prihodnosti človeštva (Future of Humanity Institute(FHI)). Kot ustanovni direktor še danes vodi FHI. To je multidisciplinarno univerzitetno raziskovalno središče. Vključuje tudi Središče za upravljanje umetne inteligence. Na FHI se ukvarjajo z varnostjo [https://sl.wikipedia.org/wiki/Umetna_inteligenca umetne inteligence] (UI), sintetično biološko varnostjo, nevarnostmi nano robotov in različnimi drugimi tehnologijami ali temeljnimi vprašanji.
 
== Delo ==
Danes je profesor na [https://sl.wikipedia.org/wiki/Univerza_v_Oxfordu Univerzi v Oxfordu]. Tam je ustanovil Inštitut prihodnosti človeštva (Future of Humanity Institute( - FHI)). Kot ustanovni direktor še danes vodi FHI. To je multidisciplinarno univerzitetno raziskovalno središče. Vključuje tudi Središčesredišče za upravljanje umetne inteligence. Na FHI se ukvarjajo z varnostjo [https://sl.wikipedia.org/wiki/Umetna_inteligenca umetne inteligence] (UI), sintetično biološko varnostjo, nevarnostmi nano robotov[[nanoroboti|nanorobotov]] in različnimi drugimi tehnologijami ali temeljnimi vprašanji.
== Eksistencialno tveganje ==
Eksistencialno tveganje opredeljuje kot tisto, v katerem lahko pride do uničenja zemljeZemlje, inteligentnega življenja ali trajnega zmanjšanja njegovega potenciala. V zborniku '''Global Catastrophic Risks''' z [[Milan M. Ćirković|Milanom M. Ćirkovićem]] opisujeta povezavo med eksistencialnim tveganjem in izbiro opazovalcev ter [https://sl.wikipedia.org/wiki/Fermijev_paradoks[Fermijev paradoks|Fermijevim paradoksom]]. Bostrom je tudi svetovalec Centra za preučevanje eksistencialnih tveganj. Meni, da je katastrofa povzročena s strani človeka trenutno veliko verjetnejša, kot naravna katastrofa, na primer trk z velikim asteroidom ali izbruh velikega vulkana.
 
== Superinteligenca ==
Superinteligenco Bostrom definira kot um, ki močno presega miselno delovanje ljudi na skoraj vseh področjih, ki nas zanimajo. Umetna inteligenca bi lahko postala superinteligenca. Superinteligenco ocenjuje kot potencialno nevarnost za človeka. V knjigi '''Superintelligence''' (2014) utemelji, da je ustvarjanje superinteligentnega bitja možen razlog za izumrtje človeštva. Kljub temu zavrača idejo, da ljudje ne morejo preprečiti neželenih posledic razvoja UI.
 
Januarja 2015 se je Bostrom pridružil Stephenu Hawkingu, Demisu Hassabisu in drugim, ko je podpisal odprto pismo, 23 načel varnosti UI (seznam 23 načel, ki jim mora slediti varen razvoj UI). Pismo opozarja na potencialne nevarnosti UI. Podpisniki verjamejo, da so raziskave kako narediti UI varno in hkrati koristno zelo pomembne. Pri tem so sodelovala tudi različna tehnološka podjetja kot Google in Microsoft.
 
Januarja 2015 se je Bostrom pridružil [[Stephen Hawking|Stephenu Hawkingu]], [[Demis Hassabis|Demisu Hassabisu]] in drugim, ko je podpisal odprto pismo, 23 načel varnosti UI (seznam 23 načel, ki jim mora slediti varen razvoj UI). Pismo opozarja na potencialne nevarnosti UI. Podpisniki verjamejo, da so raziskave kako narediti UI varno in hkrati koristno zelo pomembne. Pri tem so sodelovala tudi različna tehnološka podjetja kot Google in Microsoft.
{{v delu}}
Meni, da bi ljudje z genskim inženiringom lahko zelo povečali svoje kognitivne sposobnosti, a bi nas prej ali slej v vsakem primeru UI prehitela. V to je prepričan, ker na temeljni ravni tranzistorji delujejo veliko hitreje in učinkoviteje, kot nevronske celice. O tem, kdaj nas bo ta prehitela, je Bostrom povpraševal strokovnjake za UI in prišel do naslednje ocene: 10% verjetnost leta 2022, 50% leta 2040 in 90% leta 2075. Zato Bostrom pravi, da bo superinteligenca zadnji izum, ki ga bomo morali odkriti, saj bo po tem le-ta boljša od ljudi v izumljanju česarkoli. Za razliko od nekaterih drugih filozofov dvomi, da bi nam vsaditve čipov v možgane lahko bolj pomagale, kot če so ti zunaj nas. Trdi, da bi lahko nadčloveška inteligenca naloge opravila zelo optimalno, a pri tem ne bi upoštevala etičnih načel, če ta niso bila vnaprej vnešena. O tem govori tudi v enem od svojih TED govorov. Tam poda naslednji primer: če bi dali UI nalogo čim hitreje rešiti problem, kot na primer izračunati pi na čim več decimalnih mest, bi ta ugotovila, da bi nalogo najbolje opravila s čim večjim računalnikom. Zato bi prekrila vso površino zemlje z računalnikom, česar ljudje ne bi preživeli. Meni, da je treba najti rešitve proti temu, še preden bo superinteligenca obstajala. Pravi, da smo ljudje trenutno slabo opremljeni za dojemanje namer umetne inteligence. Superinteligenca bi lahko za zagotavljanje svojega preživetja tudi napadala. Eden od možnih varnostnih ukrepov, ki jih Bostrom omenja, je ohranjanje UI v izolaciji od zunanjega sveta, zlasti od interneta. Predlaga tudi, naj ljudje predprogramirajo UI tako, da vedno deluje iz osnovnih etičnih načel, ki jih bo imela pod človekovim nadzorom. Drugi varnostni ukrepi vključujejo, da je UI "v škatli" (deluje v simulaciji navidezne resničnosti) in se uporablja le za reševanje natančno določenih vprašanj. Opozarja, da bi lahko superinteligenca, povezana s spletom, vdirala v vse naprave na spletu in tako "ušla iz škatle". Posebej izpostavi nevarnost vdora v vodenje jedrskih konic. Meni, da če bi nas UI napadla, bi to zelo verjetno storila z nanoroboti, ki bi se bili sposobni podvajati in bi tako prekrili vso zemljo ter napadli ljudi. Bostrom meni, da bi nam lahko UI, če bi jo imeli pod nadzorom, pomagala pri drugih eksistencialnih tveganjih, kot je nanotehnologija.