När vi väldigt övergripande tittar på hur vi har använt datorer och data under senaste decennierna.
Så har dessa gått från att ha varit ett renodlat, lite dumt, redskap där vi kunnat lagra och hämta vårt data via en fas där en viss form av intelligens implementerats och där vi kunnat få ut fakta från vårt data om vad som varit till att bli allt intelligentare och idag till stor del även kunna ge oss tillförlitlig prediktiv analys av det mesta. Vi tänker i det senare fallet på allt från självkörande bilar till avancerade automatiseringar av olika former av arbetsprocesser och flöden.
På samma sätt har även robotutvecklingen gått från att vara maskiner med viss programmerad så kallad intelligens som kunnat hjälpa oss med tunga eller trista vardagliga sysslor till att under senare åren bli allt mer avancerade vilket vi fått en första bild av från bland annat IBM:s Watsonsbaserade robotar, eller de olika typer av motorbaserade skelett som kan hjälpa rörelsehindrade att gå igen med mera. Till detta så utvecklas det nu även robotar som i allt större utsträckning ser ut som människor. Men det intressanta är att de inte stannar här och utvecklingen på de tre grundområdena; maskininlärning, djupinlärning och AI accelererar i kvadrat och vi närmare oss vad som kan ses som en science fiction baserad framtid med sjumilakliv.
Automatisering och naturligare konversationer
Det första steget för att lyckas med detta är en kombination av två delar; automatisering och naturlig dialog. Automatiseringen i detta handlar om att enheten, systemet, roboten eller var vi väljer att implementera lösningen kan dra delvis egna slutsatser och komma med förslag och lösningar utan att vi som användare ber om detta. Detta kan genomföras på allt från enklare nivåer som att systemet under ett samtal med person X föreslår något som ligger utanför gällande konversation. Låt säga att en nyanställd ska ha arbetskläder och ringer inom detta. Systemet kommer i detta läge även att direkt veta av att den anställda vid denna avdelning behöver en mobil, en dator och vissa accessuppgifter och kan då direkt fråga om den anställda vill hantera detta på samma gång. Men det kan även vara betydligt djupare processer som att upptäcka icke normala beteenden i ett nätverk och utifrån dessa utföra olika åtgärder och även kontakakta berörda parter.
Den andra delen är så själva konversationen. Ett system är inte mycket värt om det inte kan tala om vad som är fel eller på ett korrekt sätt kan svara på frågor. Dagens lösningar har på detta plan kommit oerhört långt och flera system kan föra långtgående och djupa diskussioner utan att vi ens märker att det är en dator i andra ändan. De största framstegen på detta plan ser vi genom att systemen har möjligheten att förstå och hantera multipla diskussionstrådar samt att både tolka och förstå samt ge korrekt respons på delar som humoristiskt inslag, slang och olika uttryck.
Emotionella proffs
När vi väl har dessa två delar klara så kommer det som lyfter den mjuka delen av AI inte bara en eller två utan flera nivåer och detta i form av möjligheten att upptäcka, känna igen och analysera alla former av icke verbal konversation. Vi syftar här på ansiktsuttryck och mimik samt alla former av kroppsliga rörelser som många gånger är svåra eller till och med omöjliga för oss människor att upptäcka, i varje fall om vi inte är tränade på det. Lägg här till att systemen sedan kompletteras med olika former av sensorer vilka även kan mäta kroppstemperatur, puls, andning och mycket, mycket mer. Tillsammans ger detta systemet en komplett bild av vem du är, vad du tycker, hur du mår och om du exempelvis talar sanning eller töjer lite på verkligheten och allt med en extremt hög noggrannhet. Detta gör att kommande system även kommer att bli lite av emotionella proffs vilket rätt använt kommer att vara enormt användbart inom flera områden.
Nästa generations medarbetare
Vad händer då när vi slår samman alla dessa delar i en funktion eller en produkt? Jo vi får en robot där AI delen kopplat till motoriken gör att den kan gå och röra sig som en människa, som tack vare senaste tekniken inom något som vi kan kalla för kroppslig design även kommer att se ut som en människa. När denna produkt sedan adderas med den kognitiva AI biten så har helt plötsligt den första, i alla avseenden, människolika robot skapas och detta är inte något som ligger ljusår bort utan finns precis runt hörnet, eller som ett av de ledande företagen inom automatisering och AI -IPSofts CEO Chetan Dube utryckt;
– Med tanke på den utveckling som vi ser inom både robotar och AI i alla dess former så är jag fullt övertygat om att vi innan 2022 kommer att kunna möta en kollega i korridoren och inte veta om han eller hon är en människa eller robot.