2017-05-31

Säkerhetsriskerna med de värsta globala konsekvenserna

Artificiell intelligens och bioterrorism är exempel på säkerhetshot som kan få allvarliga globala konsekvenser. Det visar en ny rapport från den svenska stiftelsen Global Challenges Foundation.
Ett 30-tal ledande experter från bland annat Oxfords universitet och Future of Life Institute har bidragit till rapporten Global Catastrophic Risks 2017 som nyligen lanserades av den svenska stiftelsen Global Challenges Foundation. Rapporten identifierar de tio globala risker och säkerhetshot som kan leda till mest ödesdigra internationella konsekvenser.

Bioterrorism
En av riskerna som identifieras är massförstörelsevapen – både i form av kärnvapen, men också i form av kemiska och biologiska vapen. En aspekt som rapporten lyfter fram när det gäller de senare är att den teknologiska utvecklingen gjort det billigare och enklarare att framställa denna typ av vapen, vilket ökar risken att icke-statliga aktörer såsom terrorister kan använda teknologin.

"Terrorister kan kontaminera vattentillförseln eller släppa ut dödliga bakterier, men det är också möjligt att bristen på laboratoriesäkerhet kan leda till oavsiktlig frisättning av ett virus eller en sjukdom", skriver Angela Kane, Vienna Centre for Disarmament and Non-Proliferation, i rapporten.

Kapprustning
Rapporten tar även upp terroristhotet i samband med diskussionen av risker från artificiell intelligens (AI). Mer specifikt handlar det om risken att terrorister får tag i så kallade “Lethal Autonomous Weapons Systems" (LAWS), vilket är AI-system som är specifikt designade för att döda.

"Det är mer troligt att LAWS används offensivt än defensivt, och en kapprustning skulle kunna vara kraftigt destabiliserande eller ha starka oönskade sidoeffekter som att stärka terrorister och andra icke-statliga aktörer", skriver forskare vid Future of Life Institute som skrivit sektionen om AI i rapporten.

Superintelligens
Riskerna med AI stannar dock inte där. Enligt en undersökning tror medianexperten att det är 50% chans att det år 2050 kommer att finnas en AI som kan göra det mesta lika bra som en människa och att det är 5% sannolikhet att det två år efter det kommer att finnas en superintelligent AI. Rapporten lyfter fram att ett sådant superintelligent AI-system kan ge upphov till stora risker även om det inte är programmerat för att vara destruktivt.

"Om målen för kraftfulla AI-system inte stämmer överens med våra eller om deras arkitektur är milt felaktig kan de utnyttja sin extrema intelligens för att uppnå syften som visar sig vara katastrofala för mänskligheten", skriver forskarna i rapporten.

Två andra teknologier som enligt rapporten i framtiden kan med föra globala risker är nanoteknologi och geoengineering.

Naturkatastrofer
Flera av riskerna som identifieras i rapporten är olika typer av naturkatastrofer – vissa orsakade av människan vissa inte. Den mest uppenbara risken i den första kategorin är naturligtvis hotet från katastrofartad global uppvärmning. I den senare kategorin finns hot från bland annat naturliga pandemier, asteroidnedslag och så kallade supervulkaner.

"Pandemier, asteroidnedslag och supervulkaneruptioner har orsakat massiv förödelse i det förflutna. även om deras förekomst i stor utsträckning ligger utanför mänsklig kontroll kan våra åtgärder avsevärt begränsa omfattningen av effekten", står det i rapporten.


Leverantörer
Ändra marknad
Till toppen av sidan