• CRM Bloggen
  • Posts
  • Salesforce Tryggar AI-användningen med Einstein GPT Trust Layer

Salesforce Tryggar AI-användningen med Einstein GPT Trust Layer

Vi använder CRM-system för att hantera den mest kritiska informationen vi har i våra företag: vår kundinformation.

Denna information blir allt viktigare när vi vill automatisera och skala upp vår verksamhet med hjälp av generativ AI. Att använda kundspecifik data i promptar för att skapa innehåll är avgörande för att uppnå hög träffsäkerhet i resultaten.

Samtidigt är det inte bara en fråga om att dela data hur som helst med de stora språkmodellerna. Datadelning medför risker. Några av de vanligaste riskerna som nämns när ämnet generativ AI diskuteras är:

  1. Risker kopplade till etik och juridik: När en AI-algoritm fattar beslut kan den potentiellt bryta mot gällande lagar och etiska riktlinjer, särskilt när det gäller dataskydd, integritet och partiskhet. Till exempel, om ett rekryteringssystem har en inbyggd partiskhet baserad på kön eller hudfärg, kan det leda till rättsliga problem och negativ påverkan på företagets rykte och image.

  2. Risker kopplade till datasäkerhet och integritet: För att AI-system ska fungera effektivt behöver de tillgång till stora mängder data. Om denna data inte hanteras eller skyddas på rätt sätt kan det leda till läckor och andra säkerhetsrisker.

  3. Risker kopplade till implementering och användning: AI-teknikens komplexitet kan ge upphov till problem vid implementering och användning. Det finns ofta missförstånd kring hur AI-system tränas och vad de faktiskt kan åstadkomma, vilket kan resultera i misslyckade projekt.

Risker finns i allt vi gör. Mer eller mindre medvetet hanterar vi dem.

När man ska till jobbet på morgonen kanske man tar ett tidigare tåg för att öka sannolikheten för att hinna i tid till det viktiga morgonmötet, trots att tågtrafiken kan krångla.

Det är intressant att se hur olika CRM-företag hanterar riskerna kopplade till användningen av AI. Salesforce, som är den största leverantören inom CRM-världen, har under de senaste åren investerat kraftigt i AI med flera olika initiativ. De bemöter dessa risker med sitt "Einstein GPT Trust Layer". Genom att skapa ett lager mellan applikationerna i CRM-systemet och AI-systemet, som adresserar de vanligaste rädslorna, minskas riskerna för problem.

Med "prompt builder" kan man skapa sina egna promptar. Dessa liknar mallar som sedan används mot valfria språkmodeller. I promptarna kan man inkludera markörer som kommer att bytas ut mot data från CRM-systemet.

Salesforce Einstein GPT Trust Layer

När prompten används kommer Salesforce att infoga data och skapa en dynamisk prompt. Detta säkerställer att frågan som ställs är anpassad efter omständigheterna, vilket leder till ett bättre svar. Samtidigt finns det en risk för att känslig data kan läcka ut från systemet. Därför kommer Salesforce att maska data i prompten innan den skickas vidare till LLM:en. Resultatet blir en högt anpassad prompt som inte innehåller kundspecifik information.

När Salesforce vidarebefordrar prompten till LLM:en sker detta med en begäran om att informationen inte får sparas eller användas för ytterligare träning. Här krävs ett visst mått av förtroende för leverantören av LLM:en. Det är svårt att med säkerhet veta om vår begäran kommer att respekteras. Som användare kan vi dock välja olika leverantörer av språkmodeller, och i framtiden kommer det att finnas möjligheter att använda sin egen LLM.

När svaret kommer tillbaka analyseras det för att identifiera olämpligt innehåll. En form av lämplighetsanalys genomförs för att förhindra att svar med olämpligt språk når användaren.

Slutligen säkerställs att dialogerna loggas så att eventuella problem kan identifieras och hanteras. Detta gör det möjligt att upptäcka om systemet missbrukas och vidta rätt åtgärder för att förhindra pinsamma situationer. Snart kommer det även att finnas möjligheter för en människa att granska svaren från AI-systemet innan de skickas vidare till kunderna.

Att skapa ett säkerhetslager mot språkmodellerna är ett sätt att hantera och planera för de potentiella problem som kan uppstå vid AI-implementering i CRM-systemet. Vi befinner oss fortfarande tidigt i utvecklingen av AI, och den stora massan har ännu inte hoppat på tåget. Flera risker och utmaningar kopplade till detta teknikinförande kommer att dyka upp, men vi kommer garanterat att se olika sätt att hantera dem.

Reply

or to participate.