Wie Sie Ihre Daten mit Salesforce schützen — auch bei der Verwendung generativer KI

Die meis­ten Men­schen haben Bedenken beim Ver­wen­den von gen­er­a­tiv­er kün­stlich­er Intel­li­genz wie Chat GPT, Sales GPT oder Mar­ket­ing GPT, da sie nicht wis­sen, was das Large Lan­guage Mod­el (LLM) mit ihren Dat­en macht. Sales­force hat daher das Ein­stein GPT Trust Lay­er entwick­elt, um die Dat­en eines Unternehmens trotz Ver­wen­dung viel­er ver­schieden­er Sales­force KI Tools zu schützen. Welche Bedenken angemessen sind, wie ein LLM funk­tion­iert und wie Ein­stein GPT Trust Lay­er die Bedenken behebt, lesen Sie in diesem Blogartikel.

Welche Bedenken in Bezug auf generative KI gibt es?

Men­schen haben oft Bedenken und Äng­ste in Bezug auf die Ver­wen­dung gen­er­a­tiv­er Kün­stlich­er Intel­li­genz (KI) und den Umgang mit ihren Dat­en. Diese Bedenken kön­nen auf ver­schiedene Fak­toren zurück­zuführen sein.

Teil­weise mag es daran liegen, dass diese Mod­elle auf großen Men­gen an Dat­en trainiert wer­den müssen, um effek­tiv zu funk­tion­ieren. Dies bedeutet, dass sen­si­ble Infor­ma­tio­nen, die in den Train­ings­dat­en enthal­ten sind, möglicher­weise von den Mod­ellen erfasst und ver­wen­det wer­den kön­nen. Men­schen befürcht­en, dass ihre per­sön­lichen Dat­en, wie beispiel­sweise pri­vate Nachricht­en, E‑Mails oder Kun­den­dat­en von diesen Mod­ellen analysiert und möglicher­weise miss­braucht wer­den könnten.

Ein weit­er­er Grund für die Besorg­nis ist die Möglichkeit von Daten­lecks oder Sicher­heitsver­let­zun­gen. Wenn große Men­gen an Dat­en gesam­melt und gespe­ichert wer­den, beste­ht immer das Risiko, dass diese Dat­en in die falschen Hände geraten.

Darüber hin­aus beste­ht die Sorge, dass gen­er­a­tive KI-Mod­elle dazu ver­wen­det wer­den kön­nten, gefälschte oder manip­ulierte Inhalte zu erstellen. Diese Mod­elle haben die Fähigkeit, men­schenähn­lichen Text, Bilder oder sog­ar Videos zu gener­ieren, die schw­er von echt­en Inhal­ten zu unter­schei­den sind. Dies kön­nte zu ein­er Ver­bre­itung von Fehlin­for­ma­tio­nen oder gefälscht­en Inhal­ten führen, was das Ver­trauen der Men­schen in die dig­i­tale Welt beein­trächti­gen könnte.

Da die GPT-Tech­nolo­gie die Welt im Sturm erobert, ist es nicht ver­wun­der­lich, dass diese schein­bar magis­che Tech­nolo­gie Bedenken hin­sichtlich des Daten­schutzes und der Legit­im­ität von Infor­ma­tio­nen aufwirft. Hinzu kommt, dass diese Tech­nolo­gie zunehmend in die Tools einge­bet­tet wird, die wir tagtäglich bei der Arbeit ver­wen­den, und dass die Ver­ant­wortlichen für die Plat­tfor­men nach Sicher­heit suchen. Unternehmensleit­er wollen gen­er­a­tive KI nutzen, sind aber vor­sichtig wegen der Risiken — Daten­schutz, Vor­ein­genom­men­heit und Bedenken hin­sichtlich der Daten­ver­wal­tung schaf­fen eine Vertrauenslücke.

Wie funktioniert ein Large Language Model (LLM)?

In Bezug auf die Funk­tion­sweise eines Large Lan­guage Mod­els (LLM) und den Umgang mit Dat­en ist es wichtig zu ver­ste­hen, dass diese Mod­elle auf­grund ihrer Größe und Kom­plex­ität nicht in der Lage sind, gezielt auf bes­timmte Dat­en zuzu­greifen oder diese zu iden­ti­fizieren. LLMs wer­den in der Regel mit großen Men­gen an öffentlich ver­füg­baren Text­dat­en trainiert, die aus dem Inter­net oder anderen Quellen stam­men. Die Mod­elle ler­nen, indem sie Muster und Zusam­men­hänge in diesen Dat­en erken­nen, um Texte zu gener­ieren oder Auf­gaben wie Über­set­zun­gen oder Textver­voll­ständi­gun­gen durchzuführen.

Bei der Ver­wen­dung eines LLMs wer­den die Dat­en, die von den Benutzern eingegeben wer­den, nor­maler­weise nicht gespe­ichert oder dauer­haft ver­wen­det. Die Mod­elle ver­ar­beit­en die Eingabe, gener­ieren eine Aus­gabe und geben sie an den Benutzer zurück, ohne die Dat­en zu spe­ich­ern. Dies bedeutet, dass die Ver­wen­dung eines LLMs in der Regel keine direk­te Bedro­hung für die Pri­vat­sphäre oder Sicher­heit der Benutzer­dat­en darstellt.

Es ist jedoch wichtig zu beacht­en, dass die Ver­wen­dung gen­er­a­tiv­er KI-Mod­elle nicht ohne Risiken ist. Unternehmen und Entwick­ler, die solche Mod­elle ein­set­zen, soll­ten angemessene Sicher­heitsvorkehrun­gen tre­f­fen, um den Schutz der Dat­en zu gewährleis­ten. Dies kann die Anonymisierung oder Ver­schlüs­selung von Dat­en, die Ein­hal­tung von Daten­schutzrichtlin­ien und die Imple­men­tierung von Sicher­heits­maß­nah­men umfassen, um Daten­lecks oder unbefugten Zugriff zu verhindern.

Ins­ge­samt ist es wichtig, dass die Ver­wen­dung gen­er­a­tiv­er KI-Mod­elle trans­par­ent und ver­ant­wor­tungs­be­wusst erfol­gt. Benutzer soll­ten sich bewusst sein, wie ihre Dat­en ver­wen­det wer­den und welche Sicher­heitsvorkehrun­gen getrof­fen wer­den, um ihre Pri­vat­sphäre zu schützen. Gle­ichzeit­ig soll­ten Unternehmen und Entwick­ler die Bedenken der Benutzer ernst nehmen und Maß­nah­men ergreifen, um den Schutz der Dat­en zu gewährleis­ten und das Ver­trauen in die Ver­wen­dung gen­er­a­tiv­er KI zu stärken.

Dies ist, wo Sales­force ins Spiel kommt: mit der Ein­stein GPT Trust Layer.

Was ist Einstein GPT Trust Layer?

Als Teil der AI Cloud ist die Ein­stein GPT Trust Lay­er ein neuer Indus­tri­e­s­tandard für ver­trauenswürdi­ge Unternehmens-KI. Unternehmen prof­i­tieren von gen­er­a­tiv­er KI und kön­nen sich gle­ichzeit­ig auf den Daten­schutz und die Sicher­heit ver­lassen, indem sie ver­hin­dern, dass Large-Lan­guage-Mod­elle (LLMs) sen­si­ble Kun­den­dat­en speichern. 

Laut Sales­force waren Ver­trauen und Daten­schutz der primäre Aus­gangspunkt bei der Entwick­lung ihrer gen­er­a­tiv­en KI-Funk­tio­nen — ein Stand­punkt, der Sales­force vom Großteil des Mark­tes unterscheidet. 

Sales­force hat viel getan, um den Daten­schutz und die Ver­traulichkeit von Dat­en zu gewährleis­ten. Ein Beispiel ist die Gener­ierung von Pro­duk­tbeschrei­bun­gen in Com­merce GPT. Der Prozess find­et zum Zeit­punkt der Abfrage (Prompt) statt, wobei die ger­ing­ste Menge an Dat­en an die LLMs weit­ergegeben wird, die die gen­er­a­tiv­en Funk­tio­nen betreiben. Dies ist selb­stzer­störerisch und hat zur Folge, dass die Kun­den­dat­en die Sales­force-Cloud-Pro­duk­te, in denen sie gespe­ichert sind, nie ver­lassen. Diese Tren­nung von sen­si­blen Dat­en und LLM hil­ft den Kun­den, die Kon­trolle über die Data Gov­er­nance aufrechtzuer­hal­ten und gle­ichzeit­ig das immense Poten­zial der gen­er­a­tiv­en KI zu nutzen. 

Anek­doten von Sales­force-Führungskräften gehen in dieselbe Rich­tung: Sales­force-Kun­den sind eher bere­it, gen­er­a­tive KI-Tech­nolo­gie zu testen, wenn sie sich des von Sales­force einge­baut­en “Sicher­heit­snet­zes” bewusst sind (im Gegen­satz zu ihrer Zurück­hal­tung, wenn es sich um einen offe­nen API-Aufruf an andere Anbi­eter handelt).

Wie funktioniert Einstein GPT Trust Layer?

  • Keine Date­nauf­be­wahrung: Die Ein­stein GPT Trust Lay­er ver­hin­dert, dass Kun­den­dat­en außer­halb von Sales­force gespe­ichert wer­den. Das bedeutet, dass Prompts und Antworten nicht von LLM-Anbi­etern gespe­ichert oder zum Trainieren ihrer Mod­elle ver­wen­det werden.
  • Feed­back-Spe­ich­er: Feed­backschleifen ermöglichen es, die Qual­ität von Prompts im Laufe der Zeit zu verbessern, wenn Benutzer mit Gen­er­a­tiv­en KI-Funk­tio­nen inter­agieren. Die Ein­stein GPT Trust Lay­er sam­melt Feed­back-Dat­en, ein­schließlich der Frage, ob die gener­ierten Antworten hil­fre­ich waren oder nicht, und ob ein Ser­vice-Agent diese Antwort schließlich akzep­tiert, abgelehnt oder geän­dert hat.
  • Ver­schlüs­selte Kom­mu­nika­tion: Die an ein LLM gesende­ten Auf­forderun­gen sowie die an Sales­force zurück­ge­sende­ten Antworten wer­den verschlüsselt.
  • Daten­zu­griff­sprü­fun­gen: Steuert die Eingabeauf­forderun­gen, indem die Aus­gaben auf die Dat­en beschränkt wer­den, die gemäß den Daten­zu­griff­s­richtlin­ien des Unternehmens (z. B. Pro­file, Berech­ti­gungssätze, Rollen und Freiga­beregeln) von den Berech­ti­gun­gen des Benutzers zuge­lassen sind. 
  • Audit-Trail: Sichere Pro­tokol­lierung aller Prompts, Aus­gaben, Inter­ak­tio­nen und Feed­back­dat­en, damit Teams von gen­er­a­tiv­er KI prof­i­tieren und gle­ichzeit­ig ihre Com­pli­ance-Anforderun­gen erfüllen können.

Erfahren Sie mehr darüber, wie Ein­stein GPT Trust Lay­er funk­tion­iert in diesem Video: https://www.salesforce.com/news/stories/video/explaining-the-einstein-gpt-trust-layer/ 

In diesem Blog schreiben Mitar­beit­er von com­s­e­lect und Gas­tau­toren zu allen The­men, die uns bewe­gen: Aktuelles aus dem Hause com­s­e­lect, neue Trends im CRM, Inno­va­tio­nen und Best Prac­tices rund um Sales­force, Kün­stliche Intel­li­genz (KI), Dig­i­tal­isierung, Automa­tisierung und vieles mehr.

Autor: Anni­ka Franken, Online Mar­ket­ing
Veröf­fentlichung: August 2023
Lesedauer: 5 Minuten

Teilen Sie diesen Beitrag
Suche
Kontaktanfrage
Letzte Beiträge
All­ge­mein
a.franken@comselect.de

Success Story mit Sparkasse Bremen flexi GmbH 

Erfol­gs­geschichte mit der Sparkasse Bre­men flexi GmbH: Wie die com­s­e­lect ein inno­v­a­tives Pro­jekt effizien­ter gemacht hat Erfol­gre­ich auf das Unternehmenswach­s­tum vor­bere­it­et Mul­ti Cloud Pro­jekt — Einführung

Weiterlesen » 
All­ge­mein
a.franken@comselect.de

Dreamforce 2024 — Save the Date 

Dream­force 2024 — Save the Date Die weltweit größte Sales­force Ver­anstal­tung find­et auch in diesem Jahr wieder statt: die Dream­force 2024 wird vom 17. bis 19.

Weiterlesen » 

CRM Pioneer - 20 Jahre comselect

Als zertifizierter Salesforce Partner in Deutschland verfolgen wir ein Ziel: Sie erfolgreicher zu machen!

Ihr Erfolg ist unser Branchen Know-How

Wir kennen und verstehen Geschäftsprozesse. Von der Neukundengewinnung bis zur effektiven Vertriebssteuerung. Aus der Erfahrung von über 1000 CRM Projekten haben wir Branchen-Templates erstellt, welche Ihnen erlauben innerhalb weniger Tage mit ausgewählten Prozessen „live“ zu gehen.

Herstellende Industrie

Bau- & Zulieferindustrie

  • Baucore Cloud

Stadtwerke & Energieversorger

  • Energy & Utility Cloud

Salesforce Multi-Cloud Expertise seit 2002

Salesforce ist eine CRM-Lösung für das Management von Kundenbeziehungen. Alle Abteilungen, einschließlich Marketing, Vertrieb, Kundenservice sowie Online- und stationärer Handel arbeiten auf einer gemeinsamen CRM-Plattform. So haben alle dieselbe Sicht auf ihre Kunden und können für das perfekte Kundenerlebnis sorgen.

Sie wollen die Lösungen live sehen? Nutzen Sie unser kostensfreies Beratungsangebot.

Lösungen für Ihre Daten

Daten- / Datensicherheit

 
3rd Party Apps
  • Conga
  • Tourenplaner
  • Docusign

Salesforce CRM Beratungs seit 2002

Über 400 mittelständische Unternehmen vertrauen unserem Know-how und den Salesforce Clouds.

Salesforce Service & Support

Diese Website benutzt Cookies, welche für die Funktion und Darstellung notwendig sind. Wenn Sie diese Website weiter nutzten, gehen wir von Ihrem Einverständnis aus.