De senaste tio åren har klimatkrisen, Peak Oil och människans obalanserade förhållande till naturen upptagit det mesta av min energi och tankar. Men under ytan har jag alltmer börjat fundera om det inte finns ett par svarta svanar där ute som jag och många med mig missat som rent av kan vara i paritet eller till och med långt värre än andra mer kända existentiella kriser mänskligheten kan stå inför inom närmaste årtiondena eller 100 åren. Värre? Vad babblar han (jag) om! Well, det är den oundvikliga logiska tanken som for1mas i min hjärna...
Jag har nämligen läst en rad böcker på temat Artificiell Intelligens de senaste åren och tycker jag har hygglig koll på ämnet. Nick Boströms bok "Superintelligens" är en favorit, uppskattar även Max Tegmarks eminenta bok Liv 3.0 som på ett mer pedagogiskt och mindre tekniskt detaljerat sätt förklarar riskerna och möjligheterna med utvecklingen inom Artificiell Intelligens. Ray Kurzweils bibeltjocka verk "Singularity is near" har jag även tagit mig igenom men där häpnade jag över den till synes naiva uberoptimismen som geniet, uppfinnaren och nu Google AI-oraklet Ray Kurzweil framför.
Den moderna "AI gudfadern" Stuart Russels senaste bok "Human Compatible" har jag även läst och kan rekommendera för den oinsatta.
Men som från klar himmel, kom en bekräftelse på att min tanke "vi kanske har missat nåt..." kanske ändå var befogad!
Jag blev nämligen tipsad om prof. Olle Häggströms bok "Tänkande Maskiner" som är utgiven på Fri Tanke förlag, samma förlag som Olja för Blåbär- boken jag är huvudförfattare till är utgiven av. Detta är en häpnadsväckande övertygande och skrämmande viktig bok som mycket pedagogiskt och välskrivet visar på de potentiell existentiella risker vi kan stå inför med den snabba utvecklingen inom Artificiell Intelligens.
Tänkande Maskiner är ett absolut måste att läsa för företagsledare, politiker, studenter och ja den som vill förstå varför AI-utvecklingen närmaste åren eller inom ett par årtionden kan medföra existentiella risker för mänskligheten minst lika allvarliga och kanske rent av värre än tex klimatkrisen om vi inte förbereder oss för dem i god tid före.
Jag tog kontakt med Olle Häggström för ett samtal på Evolution Show och idag kan ni titta och lyssna på del 1 som ni inte vill missa!
Vårt samtal täcker många olika AI-risker, varför en AI-revolution kan vara precis runt hörnet, årtionden eller bara några år framöver och varför vi måste börja förbereda oss för en nära framtid som kan förändra mänskligheten och livet som vi känner det. Olle Häggström förklarar varför det inte bara går att dra ur kontakten och stänga av en Super AI när den är här (om vi når dit men eftersom vi inte vet måste vi förbereda oss som om vi kommer dit!)
Vi tittar på vad kan vara drivande bakom en pågående AI-kapprustning just nu och mycket mer!
Del 2 släpps nästa vecka på Evolution Show där vi pratar om hur vi kan förbereda och skapa en AI som kan bli det bästa som mänskligheten skapat och inte det sista och värsta!
Hoppas avsnitten uppskattas, sprid gärna till kloka ledare och vänner!
Och så en avslutande tanke...Tänk om mänskligheten inte kan fixa klimatkrisen, ekosystem-kollapser eller den fossila omställningen i tid men en Super AI kan hjälpa oss göra det. Och det dessutom med oss kvar i nuvarande biologiska form eller uppdaterade för de som vill, på ett gynnsamt och icke skadligt vis för oss alla? Det kanske kan gå men inte om vi bara "låter utvecklingen ha sin gång" som det så dumt heter, vi måste nog som professor Olle Häggström säger, förbereda oss många år innan och redan nu vara transparenta om hur och i vilken riktning vi styr AI-utvecklingen... För de flesta har inte en aning om hur exponentiellt fort det går inom AI-utvecklingen nu...
Den här kommentaren har tagits bort av bloggadministratören.
SvaraRadera