Ingen universal lösning: Missuppfattningen kring AI

Missuppfattningen om AI och ChatGPT

I dagens samhälle är det lätt att likställa begreppet "AI" med ChatGPT, som är en språkmodell. Denna typ av tjänst har snabbt blivit symboler för AI, särskilt efter att de fått stort genomslag. Men det är viktigt att förstå att alla AI-tjänster inte fungerar på samma sätt.

En stor språkmodell är tränad på massiva mängder textdata för att kunna skapa en illusion av mänsklig konversation och resonemang. Den "förstår" dock inte världen som en människa, och detta leder ibland till så kallade "hallucinationer".

Hallucinationer beror på felaktiga förväntningar

Fenomenet gäller främst språkmodeller som ChatGPT och innebär att det genererade svaret innehåller falsk eller vilseledande information som presenteras som trovärdig fakta. Orsaken till detta är att modellen är tränad för språkuppbyggnad och -förståelse, inte att svara på faktafrågor inom specifika områden där den mer ska ses som en generalist som kan återge grundläggande kunskap.

Hallucinering är inte något som förekommer inom alla AI-tjänster. Ett avancerat exempel där AI används med framgång är inom cybersäkerhet, specifikt utvecklat för att identifiera hot och analysera mönster. Den stora mängden data som behöver hanteras, ofta med komplexa samband, gör AI lämpligt för detta användningsområde.

Rätt AI för rätt ändamål

Exemplet med AI inom cybersäkerhet visar tydligt hur specialiserade AI-tjänster löser specifika uppgifter. Användningsområdet styr helt hur en AI-tjänst är utformad, från de tekniska komponenterna till kontexten som den tränas för. Att förstå skillnaderna för olika användningsområden är avgörande för att kunna utveckla rätt AI-tjänst för rätt ändamål och på så sätt möta förväntan på resultat.

Vi på Bitoreq anser att verksamhetsnyttan alltid ska styra vilken teknik som används. Vi är övertygade om att framtidens AI-lösningar är skräddarsydda för specifika ändamål och roller för att på bästa sätt stötta den specifika verksamheten. Precis som en dirigent väljer typ av orkester och instrument efter stycket som ska framföras, kombinerar vi AI och andra tekniska komponenter till experttjänster som skapar verksamhetsnytta på riktigt.

För en människa är det självklart att förstå hur ett pussel fungerar, men för en AI som DALL-E, tränad på att generera bilder, saknas den logiska förståelsen för hur bitarna hänger samman. 

(Bilden är genererad med hjälp av DALL-E av OpenAI)

Föregående
Föregående

Bitoreqs filosofi för skräddarsydda AI-lösningar

Nästa
Nästa

Ansvarsfull AI: Ett stöd för beslut med människan i centrum