Herausforderungen bei der Cybersicherheit für künstliche Intelligenz: Berücksichtigung des KI-Lebenszyklus

Artificial Intelligence (AI) is influencing people’s everyday lives and playing a key role in digital transformation through its automated decision-making capabilities. The benefits of this emerging technology are significant, but so are the concerns. In this recent report, The EU Agency for Cybersecurity (ENISA) warns that AI may open new avenues in manipulation and attack methods, as well as new privacy and data protection challenges.

en flag
nl flag
et flag
fi flag
fr flag
de flag
pt flag
ru flag
es flag

Anmerkung der Redaktion: Die Agentur der Europäischen Union für Cybersicherheit, ENISA, ist die Agentur der Union, die sich der Erreichung eines hohen gemeinsamen Niveaus der Cybersicherheit in ganz Europa verschrieben hat. Im Dezember 2020 veröffentlichte die ENISA den Bericht AI Cybersecurity Challenges - Threat Landscape for Artificial Intelligence. Der Bericht präsentiert die aktive Kartierung des Ökosystems der KI-Cybersicherheit und ihrer Bedrohungslandschaft durch die Agentur. Im Rahmen des Berichts wird ein generisches Lebenszyklus-Referenzmodell für KI bereitgestellt, das einen strukturierten und methodischen Ansatz zum Verständnis der verschiedenen Facetten der KI ermöglicht. Dieser generische KI-Lebenszyklus kann für Rechts-, Geschäfts- und Informationssicherheitsexperten im eDiscovery-Ökosystem von Vorteil sein, die beginnen, Cybersicherheit und ihre Beziehung zu KI in Betracht zu ziehen.

Herausforderungen für KI-Cybersicherheit - Agentur der Europäischen Union für Cybersicherheit

Bericht Auszug auf KI-Lebenszyklus geteilt mit Berechtigung*

Phasen des Lebenszyklus von KI

Abbildung: Generisches Referenzmodell für den AI Lifecycle

Generisches Referenzmodell für den KI-Lebenszyklus

In diesem Abschnitt geben wir eine kurze Definition für jede Phase des KI-Lebenszyklus und zeichnen die einzelnen Schritte zusammen („Phase in Kürze“).

Definition des Geschäftsziels

Vor der Durchführung einer KI-Anwendung/Systementwicklung ist es wichtig, dass die Benutzerorganisation den Geschäftskontext der KI-Anwendung/des KI-Systems und die Daten, die zur Erreichung der Geschäftsziele der KI-Anwendung erforderlich sind, sowie die Geschäftsmetriken, die zur Bewertung des Grades verwendet werden diese Ziele wurden erreicht.

Definitionsphase für Geschäftsziele in Kürze: Identifizieren Sie den Geschäftszweck der KI-Anwendung/des Systems. Verknüpfen Sie den Zweck mit der Frage, die vom KI-Modell zu beantworten ist, das in der Anwendung/dem System verwendet werden soll. Identifizieren Sie den Modelltyp anhand der Frage.

Datenaufnahme

Die Datenaufnahme ist die KI-Lebenszyklusphase, in der Daten aus mehreren Quellen (Rohdaten können strukturiert oder unstrukturiert sein) gewonnen werden, um mehrdimensionale Datenpunkte, sogenannte Vektoren, zur sofortigen Verwendung oder zur Speicherung zu erstellen, um später darauf zugegriffen und verwendet zu werden. Die Datenaufnahme ist die Grundlage jeder KI-Anwendung. Daten können direkt aus ihren Quellen in Echtzeit aufgenommen werden, auf kontinuierliche Weise, auch bekannt als Streaming, oder durch den Import von Datenchargen, bei denen Daten regelmäßig in großen Makro-Batches oder in kleinen Mikrobatches importiert werden.

Verschiedene Aufnahmemechanismen können gleichzeitig in derselben Anwendung aktiv sein, indem sie die Batch- und Stream-Aufnahme derselben Datenflüsse synchronisieren oder entkoppeln. Aufgusskomponenten können auch Datenanmerkungen angeben, d. h. ob die Aufnahme mit oder ohne Metadaten (Datenwörterbuch oder Ontologie/Taxonomie der Datentypen) erfolgt. Häufig wird die Zugangskontrolle während der Datenaufnahme durchgeführt, um den Datenschutzstatus der Daten (persönliche/nicht personenbezogene Daten) zu modellieren, geeignete Techniken zur Wahrung der Privatsphäre zu wählen und den erreichbaren Kompromiss zwischen Datenschutzauswirkungen und analytischer Genauigkeit zu berücksichtigen. Die Einhaltung des geltenden Rechtsrahmens für die Privatsphäre und den Datenschutz der EU muss in allen Fällen sichergestellt werden.

Der Datenschutzstatus, der Daten zugewiesen wird, wird verwendet, um das AI Application Service Level Agreement (SLA) in Übereinstimmung mit dem geltenden Rechtsrahmen für die Privatsphäre und den Datenschutz der EU zu definieren, einschließlich unter anderem die Möglichkeit der Inspektion/Prüfung durch zuständige Aufsichtsbehörden (wie Datenschutz Behörden). Es ist wichtig zu bedenken, dass bei der Aufnahme von Daten ein IT-Governance-Konflikt entstehen kann. Auf der einen Seite werden Daten von seinen Eigentümern unterteilt, um die Zugangskontrolle und den Datenschutz zu gewährleisten. Auf der anderen Seite müssen sie integriert werden, um Analysen zu ermöglichen. Häufig gelten für Elemente derselben Kategorie unterschiedliche Richtlinien und Richtlinienregeln. Bei Multimedia-Datenquellen können Zugriffsprotokolle sogar einem Digital Right Management (DRM) -Ansatz folgen, bei dem der Wartebeweis zuerst mit Lizenzservern ausgehandelt werden muss. Es liegt in der Verantwortung des KI-Anwendungsdesigners, sicherzustellen, dass die Aufnahme unter Beachtung der Richtlinien der Datenanbieter zur Datennutzung und des geltenden EU-Rechtsrahmens für Datenschutz und zum Datenschutz erfolgt.

Datenerfassung/Aufnahmephase auf einen Blick: Identifizieren Sie die zu erhebenden (dynamischen) Eingabedaten und die entsprechenden Kontext-Metadaten. Organisieren Sie die Aufnahme gemäß den Anforderungen der KI-Anwendung, importieren Sie Daten in Stream, Batch oder multimodal.

Datenexploration

Die Datenexploration ist die Phase, in der Erkenntnisse aus aufgenommenen Daten gewonnen werden. Während es in einigen KI-Anwendungen übersprungen werden kann, in denen Daten gut verstanden werden, ist es normalerweise eine sehr zeitaufwendige Phase des KI-Lebenszyklus. In diesem Stadium ist es wichtig, die Art der gesammelten Daten zu verstehen. Es muss zwischen den verschiedenen möglichen Datentypen unterschieden werden, wobei numerische und kategorische neben Multimediadaten (z. B. Numerische Daten ermöglichen sich zum Plotten und ermöglichen die Berechnung beschreibender Statistiken und die Überprüfung, ob die Daten zu einfachen parametrischen Verteilungen wie der Gaußschen passen. Fehlende Datenwerte können auch in der Explorationsphase erkannt und behandelt werden. Kategoriale Variablen sind solche, die zwei oder mehr Kategorien haben, jedoch keine intrinsische Reihenfolge. Wenn die Variable eine eindeutige Reihenfolge hat, wird sie als ordinale Variable betrachtet.

Datenvalidierung/Exploration in a Nutshell: Überprüfen Sie, ob Daten in eine bekannte Statistikverteilung passen, entweder nach Komponente (monomvariate Verteilungen) oder als Vektoren (Multivariantenverteilung). Schätzen Sie die entsprechenden Statistikparameter.

Vorverarbeitung von Daten

Die Phase der Datenvorverarbeitung verwendet Techniken, um die Daten zu bereinigen, zu integrieren und zu transformieren. Dieser Prozess zielt auf eine Verbesserung der Datenqualität ab, die die Leistung und Effizienz des gesamten KI-Systems verbessert, indem während der Trainingsphase der Analysemodelle Zeit gespart und eine bessere Qualität der Ergebnisse gefördert wird. Insbesondere bezeichnet der Begriff Datenbereinigung Techniken zur Korrektur von Inkonsistenzen, zur Beseitigung von Rauschen und zur Anonymisierung/Pseudonymisierung von Daten.

Die Datenintegration stellt Daten aus mehreren Quellen zusammen, während die Datentransformation die Daten für die Fütterung eines Analysemodells vorbereitet, indem sie es in einem numerischen Format kodiert. Eine typische Codierung ist die Ein-Hot-Codierung, die kategoriale Variablen als binäre Vektoren darstellt. Diese Codierung erfordert zunächst, dass die kategorialen Werte auf Ganzzahlwerte abgebildet werden. Dann wird jeder Ganzzahlwert als binärer Vektor dargestellt, der alle Nullwerte mit Ausnahme der Position der Ganzzahl ist, die mit einer 1 markiert ist.

Nach der Umwandlung in Zahlen können Daten weiteren Transformationsarten unterzogen werden: Neuskalierung, Standardisierung, Normalisierung und Kennzeichnung. Am Ende dieses Prozesses wird ein numerischer Datensatz erhalten, der die Grundlage für das Training, Testen und Auswerten des KI-Modells bilden wird.

Da ein ausreichend großer Datensatz einer der wichtigsten Erfolgsfaktoren beim ordnungsgemäßen Training eines Modells ist, ist es üblich, verschiedene Techniken zur Datenerweiterung auf die zu kleinen Trainingsdatensätze anzuwenden. Zum Beispiel ist es üblich, verschiedene skalierte oder gedrehte Versionen von Bildern in ein Trainingsdatensatz aufzunehmen, die sich bereits in diesem Datensatz befanden. Ein weiteres Beispiel für die Datenerweiterung, die bei der Textverarbeitung verwendet werden kann, ist das Ersetzen eines Wortes durch sein Synonym. Selbst in den Fällen, in denen der Trainingsdatensatz groß genug ist, können Techniken zur Datenerweiterung das endgültige trainierte Modell verbessern. Die Daten können auch erweitert werden, um die Menge und die Vielfalt der abgedeckten Szenarien zu erhöhen. Die Datenvergrößerung besteht in der Regel darin, Transformationen anzuwenden, von denen bekannt ist, dass sie labelhaltend sind, d. h. das Modell sollte seine Ausgabe (nämlich Vorhersage) nicht ändern, wenn es mit den transformierten Datenelementen präsentiert wird. Die Datenvergrößerung kann dazu dienen, die Leistung eines Modells und insbesondere seine Robustheit gegenüber gutartigen Störungen zu verbessern. Eine Aufgabe, bei der Datenerweiterung standardmäßig verwendet wird, ist die Bildklassifizierung, bei der Daten beispielsweise durch das Anwenden von Übersetzungen, Rotationen und Unschärfefiltern ergänzt werden können.

Datenvorverarbeitung auf einen Blick: Konvertieren Sie aufgenommene Daten in ein metrisches (numerisches) Format, integrieren Sie Daten aus verschiedenen Quellen, behandeln Sie fehlende Nullwerte durch Interpolation, verdichten Sie die Sparsamkeit der Daten, Rauschen, Filterausreißer, Änderungsdarstellungsintervall, anonymisieren/pseudonymisieren von Daten, Augmentdaten.

Feature-Auswahl

Die Feature-Auswahl (im Allgemeinen Feature-Engineering) ist der Schritt, in dem die Anzahl der Komponenten oder Features (auch Dimensionen genannt), die jeden Datenvektor bilden, reduziert wird, indem die Komponenten identifiziert werden, von denen angenommen wird, dass sie für das KI-Modell am sinnvollsten sind. Das Ergebnis ist ein reduzierter Datensatz, da jeder Datenvektor weniger Komponenten als zuvor hat. Neben der Reduzierung der Rechenkosten kann die Auswahl von Funktionen genauere Modelle bringen.

Darüber hinaus sind Modelle, die auf niedrigerdimensionalen Daten aufbauen, verständlicher und erklärbarer. Diese Phase kann auch in die Modellbauphase eingebettet werden (zum Beispiel bei der Verarbeitung von Bild- oder Sprachdaten), die im nächsten Abschnitt besprochen wird.

Feature-Auswahl auf einen Blick: Identifizieren Sie die Dimensionen des Datensatzes, die einen globalen Parameter berücksichtigen, z. B. die Gesamtvarianz der Beschriftungen. Projektdaten, die entlang dieser Dimensionen festgelegt sind und die anderen verwerfen.

Modellauswahl/Gebäude

In dieser Phase wird die Auswahl/Erstellung des besten KI-Modells oder -Algorithmus zur Analyse der Daten durchgeführt. Es ist eine schwierige Aufgabe, die oft einem Versuch und Irrtum unterliegt. Basierend auf dem Geschäftsziel und der Art der verfügbaren Daten können verschiedene Arten von KI-Techniken verwendet werden. Die drei allgemein identifizierten Hauptkategorien sind überwachtes Lernen, unbeaufsichtigtes Lernen und Reinforcement Learning-Modelle. Überwachte Techniken befassen sich mit markierten Daten: Das KI-Modell wird verwendet, um die Zuordnung zwischen Eingabebeispielen und den Zielergebnissen zu erlernen.

Überwachte Modelle können als Klassifikatoren, deren Ziel es ist, eine Klassenbezeichnung vorherzusagen, und Regressoren, deren Ziel es ist, eine numerische Wertfunktion der Eingaben vorherzusagen. Hier sind einige gängige Algorithmen Support Vector Machines, Naïve Bayes, Hidden Markov Model, Bayesian Netzwerke und Neural Networks.

Unüberwachte Techniken verwenden unmarkierte Trainingsdaten, um Beziehungen daraus zu beschreiben und zu extrahieren, entweder mit dem Ziel, sie in Clustern zu organisieren, die Assoziation zwischen dem Dateneingaberaum hervorzuheben, die Verteilung der Daten zusammenzufassen und die Datendimensionalität zu reduzieren (dieses Thema wurde bereits als vorläufig behandelt -Schritt für die Datenvorbereitung im Abschnitt zur Feature-Auswahl). Das verstärkte Lernen ordnet Situationen mit Aktionen zu, indem Lernverhalten, die eine gewünschte Belohnungsfunktion maximieren.

Während die Art der Trainingsdaten, die beschriftet oder nicht, für die Art der zu verwendenden und zu wählenden Technik von entscheidender Bedeutung ist, können Modelle auch von Grund auf neu erstellt werden (obwohl dies eher unwahrscheinlich ist), wobei der Datenwissenschaftler das Modell mit den inhärenten Software-Engineering-Techniken entwirft und codiert; oder das Erstellen eines Modells durch kombiniert eine Komposition von Methoden. Es ist wichtig zu beachten, dass die Modellauswahl (nämlich die Auswahl des an die Daten angepassten Modells) eine weitere Transformation der Eingabedaten auslösen kann, da verschiedene KI-Modelle unterschiedliche numerische Kodierungen der Eingangsdatenvektoren erfordern.

Im Allgemeinen umfasst die Auswahl eines Modells auch die Wahl seiner Trainingsstrategie. Im Kontext des überwachten Lernens beinhaltet das Training beispielsweise die Berechnung (eine Lernfunktion von) den Unterschied zwischen der Ausgabe des Modells, wenn es jedes Trainingssatz-Datenelement D als Eingabe empfängt, und dem Label von D. Dieses Ergebnis wird verwendet, um das Modell zu ändern, um die Differenz zu verringern.

Es stehen viele Trainingsalgorithmen zur Fehlerminimierung zur Verfügung, die meisten basieren auf dem Abstieg des Gradienten. Trainingsalgorithmen haben ihre eigenen Hyperparameter, einschließlich der Funktion, die zur Berechnung des Modellfehlers verwendet werden soll (z. B. mittlerer quadratischer Fehler), und die Chargengröße, dh die Anzahl der markierten Stichproben, die dem Modell zugeführt werden sollen, um einen Wert des Fehlers zu akkumulieren, der für die Anpassung des Modells selbst verwendet werden soll.

KI-Modellauswahl auf einen Blick: Wählen Sie den für die Anwendung geeigneten Typ des KI-Modells. Codieren Sie die Dateneingabevektoren so, dass sie dem bevorzugten Eingabeformat des Modells entsprechen.

Modell-Training

Nachdem Sie ein KI-Modell ausgewählt haben, das sich im Kontext dieses Referenzmodells hauptsächlich auf ein Machine Learning (ML) -Modell bezieht, beginnt die Trainingsphase des KI-Systems. Im Zusammenhang mit dem überwachten Lernen muss das ausgewählte ML-Modell eine Trainingsphase durchlaufen, in der interne Modellparameter wie Gewichte und Vorspannung aus den Daten gelernt werden. Dies ermöglicht es dem Modell, Verständnis über die verwendeten Daten zu erlangen und sie somit besser zu analysieren. Auch hier beinhaltet das Training die Berechnung (eine Funktion von) die Differenz zwischen der Ausgabe des Modells, wenn es jedes Trainingssatz-Datenelement D als Eingabe empfängt, und dem Label von D. Dieses Ergebnis wird verwendet, um das Modell zu modifizieren, um die Differenz zwischen dem abgeleiteten Ergebnis und dem gewünschten Ergebnis zu verringern und führt somit schrittweise zu genaueren, erwarteten Ergebnissen.

Die Trainingsphase wird das ML-Modell mit Chargen von Eingabevektoren versorgen und die ausgewählte Lernfunktion verwenden, um die internen Parameter des Modells (Gewichte und Bias) basierend auf einem Maß (z. B. linearer, quadratischer, logischer Verlust) der Differenz zwischen der Ausgabe des Modells und den Etiketten anzupassen. Oft wird der verfügbare Datensatz zu diesem Zeitpunkt in ein Trainingsset unterteilt, das zum Einstellen der Modellparameter verwendet wird, und in einem Testsatz, in dem Bewertungskriterien (z. B. Fehlerquote) nur aufgezeichnet werden, um die Leistung des Modells außerhalb des Trainingssatzes zu bewerten. Kreuzvalidierungsschemata partitionieren zufällig ein Vielfaches eines Datensatzes in einem Trainings- und einem Testteil fester Größen (z. B. 80% und 20% der verfügbaren Daten) und wiederholen dann die Trainings- und Validierungsphasen auf jeder Partition.

KI-Modelltraining auf einen Blick: Wenden Sie den ausgewählten Trainingsalgorithmus mit den entsprechenden Parametern an, um das gewählte Modell entsprechend den Trainingsdaten zu ändern. Validieren Sie das Modelltraining auf Testset gemäß einer Kreuzvalidierungsstrategie.

Modell-Tuning

Das Modell-Tuning überschneidet sich normalerweise mit dem Modelltraining, da das Tuning normalerweise innerhalb des Trainingsprozesses berücksichtigt wird. Wir haben uns dafür entschieden, die beiden Phasen des KI-Lebenszyklus zu trennen, um die Unterschiede in Bezug auf den funktionalen Betrieb hervorzuheben, obwohl es höchstwahrscheinlich ist, dass sie in den meisten KI-Systemen beide Teil des Trainingsprozesses sind.

Bestimmte Parameter definieren Konzepte auf hoher Ebene über das Modell, wie ihre Lernfunktion oder -modalität, und können nicht aus Eingabedaten gelernt werden. Diese speziellen Parameter, die oft als Hyperparameter bezeichnet werden, müssen manuell eingerichtet werden, obwohl sie unter bestimmten Umständen automatisch durch Durchsuchen des Raums der Modellparameter angepasst werden können. Diese Suche, die als Hyperparameter-Optimierung bezeichnet wird, wird häufig mit klassischen Optimierungstechniken wie Grid Search durchgeführt, aber Random Search und Bayes'sche Optimierung können verwendet werden. Es ist wichtig zu beachten, dass die Model Tuning-Phase einen speziellen Datensatz (oft als Validierungssatz bezeichnet) verwendet, der sich von den in den vorherigen Phasen verwendeten Trainings- und Testsätzen unterscheidet. Eine Evaluierungsphase kann auch in Betracht gezogen werden, um die Output-Grenzen abzuschätzen und zu bewerten, wie sich das Modell unter extremen Bedingungen verhalten würde, beispielsweise durch Verwendung falscher/unsicherer Datensätze. Es ist wichtig zu beachten, dass es abhängig von der Anzahl der zu anpassenden Hyperparameter möglicherweise nicht möglich ist, alle möglichen Kombinationen auszuprobieren.

AI Model Tuning in a Nutshell: Wenden Sie die Modellanpassung auf die Hyperparameter des trainierten KI-Modells mithilfe eines Validierungsdatensatzes entsprechend der Bereitstellungsbedingung an.

Übertragen von Lernen

In dieser Phase bezieht die Benutzerorganisation ein vortrainiertes und vorab abgestimmtes KI-Modell und verwendet es als Ausgangspunkt für weitere Schulungen, um eine schnellere und bessere Konvergenz zu erreichen. Dies ist normalerweise der Fall, wenn nur wenige Daten für das Training zur Verfügung stehen. Es ist zu beachten, dass alle oben beschriebenen Schritte (Tuning, Tests usw.) auch für Transfer-Lernen gelten. Da Transferlernen in vielen Fällen angewendet wird, kann man außerdem Transferlernen als Teil der Modellschulungsphase betrachten, da Transferlernen normalerweise als Ausgangspunkt des Trainingsalgorithmus dient. Um einen größeren Spielraum zu gewährleisten, unterscheiden wir Transfer Learning in eine bestimmte Phase des hier vorgestellten KI-Lebenszyklus.

Transfer Learning auf einen Blick: Beschaffen Sie ein vortrainiertes KI-Modell im selben Anwendungsbereich und wenden Sie bei Bedarf zusätzliche Schulungen an, um die Genauigkeit in der Produktion zu verbessern.

Modell-Einsatz

Ein Machine Learning-Modell wird einem Unternehmen nur dann Wissen vermitteln, wenn seine Vorhersagen den Endbenutzern zur Verfügung stehen. Die Bereitstellung ist der Prozess, bei dem ein geschultes Modell verwendet und den Benutzern zur Verfügung gestellt wird.

Modellbereitstellung auf einen Blick: Generieren Sie eine Inkarnation des Modells in der Produktion als Software, Firmware oder Hardware. Stellen Sie die Modellinkarnation in Edge oder Cloud bereit und verbinden Sie Datenflüsse in der Produktion.

Vorbildliche Pflege

Nach der Bereitstellung müssen KI-Modelle kontinuierlich überwacht und gepflegt werden, um Konzeptänderungen und potenzielle Konzeptvarianten zu bewältigen, die während ihres Betriebs auftreten können. Eine Änderung des Konzepts tritt auf, wenn sich die Bedeutung einer Eingabe für das Modell (oder eines Ausgabe-Labels) ändert, z. B. aufgrund geänderter Vorschriften. Eine Konzeptdrift tritt auf, wenn die Änderung nicht drastisch ist, sondern langsam auftritt. Drift ist häufig auf eine Sensorverkrustungen zurückzuführen, d. h. eine langsame Entwicklung im Laufe der Zeit in der Sensorauflösung (der kleinste nachweisbare Unterschied zwischen zwei Werten) oder dem Gesamtdarstellungsintervall. Eine beliebte Strategie zur Abwicklung der Modellwartung ist das fensterbasierte Neuerlernen, das beim Aufbau eines ML-Modells auf aktuellen Datenpunkten beruht. Eine weitere nützliche Technik für die Wartung von KI-Modellen ist das Back-Test. In den meisten Fällen weiß die Benutzerorganisation, was nach der Einführung des KI-Modells passiert ist, und kann die Modellvorhersage mit der Realität vergleichen. Dies hebt Konzeptänderungen hervor: Wenn ein zugrunde liegendes Konzept wechselt, sehen Unternehmen einen Leistungsabfall. Eine andere Möglichkeit, diese Konzeptdrifts zu erkennen, kann die statistische Charakterisierung des Eingabe-Datasets beinhalten, das für das Training des KI-Modells verwendet wird, so dass es möglich ist, diesen Trainingsdatensatz mit den aktuellen Eingabedaten in Bezug auf statistische Eigenschaften zu vergleichen. Wesentliche Unterschiede zwischen den Datensätzen können auf das Vorhandensein potenzieller Konzeptdrifts hindeuten, die möglicherweise einen erneuten Lernprozess erfordern, noch bevor die Ausgabe des Systems erheblich beeinträchtigt wird. Auf diese Weise können Umschulungs-/Umlernprozesse, die potenziell zeit- und ressourcenaufwendig sein können, nur dann durchgeführt werden, wenn dies erforderlich ist, anstatt regelmäßig, wie in den oben genannten fensterbasierten Re-Lernstrategien. Die Modellwartung spiegelt auch die Notwendigkeit wider, die Geschäftsziele und Vermögenswerte zu überwachen, die sich im Laufe der Zeit entwickeln könnten, und das Modell selbst entsprechend beeinflussen.

Model Maintenance in a Nutshell: Überwachen Sie die ML-Inferenzergebnisse des implementierten KI-Modells sowie die vom Modell empfangenen Eingabedaten, um mögliche Konzeptänderungen oder Abweichungen zu erkennen. Trainieren Sie das Modell bei Bedarf neu.

Geschäftliches Verständnis

Der Aufbau eines KI-Modells ist oft teuer und immer zeitaufwändig. Es birgt mehrere Geschäftsrisiken, darunter die fehlende Auswirkung auf die Benutzerorganisation sowie das Fehlen von Produktionsfristen nach Abschluss. Geschäftsverständnis ist die Phase, in der Unternehmen, die KI-Modelle einsetzen, Einblicke in die Auswirkungen von KI auf ihr Unternehmen erhalten und versuchen, die Erfolgswahrscheinlichkeit zu maximieren.

Business Understanding auf einen Blick: Bewerten Sie das Wertangebot des implementierten KI-Modells. Schätzen Sie (vor der Bereitstellung) und überprüfen Sie (nach der Bereitstellung) die geschäftlichen Auswirkungen.

Cybersecurity-Herausforderungen für künstliche Intelligenz*

Lesen Sie den vollständigen Bericht (PDF)

ENISA-Bericht — Herausforderungen bei KI-Cybersicherheit

Lesen Sie die Originalkommunikation.

*Mit Genehmigung unter Creative Commons — Namensnennung 4.0 International (CC BY 4.0) — Lizenz geteilt.

Zusätzliche Lekt

Ansteigende Kosten? Berücksichtigung der Wirtschaftlichkeit von Datenschutzverletzungen

Das Glück der Iren? Data Protection Commission of Ireland veröffentlicht Jahresbericht

Quelle: ComplexDiscovery

SPAC-Angriff? Cellebrite bewegt sich zu einer Aktiengesellschaft

According to Adam Clammer, Chief Executive Officer of TWC Tech Holdings,...

Cobra Legal Solutions erhält Investitionen von Blue Sage Capital

According to Eric Weiner, Partner at Blue Sage, “We are excited...

eDiscovery Fusionen, Übernahmen und Investitionen im ersten Quartal 2021

From Relativity and Reveal to Compliance (System One) and Veristar, the...

Cyberrisiko und -belohnung? Kroll erwirbt Redscan

According to Redscan CEO, Mike Fenton, “Merging Redscan’s innovative culture and...

Eine neue Ära in eDiscovery? Rahmen des Marktwachstums durch die Linse von sechs Epochen

There are many excellent resources for considering chronological and historiographical approaches...

Ein eDiscovery-Markt-Mashup: 2020-2025 Weltweiter Überblick über Software und Services

While the Compound Annual Growth Rate (CAGR) for worldwide eDiscovery software...

Die Baseline zurücksetzen? eDiscovery-Marktgrößenanpassungen für 2020

An unanticipated pandemeconomic-driven retraction in eDiscovery spending during 2020 has resulted...

Heim oder weg? Überlegungen zur Größenbestimmung und Preisgestaltung im eDiscovery-Sammlungsmarkt

One of the key home (onsite) or away (remote) decisions that...

Fünf großartige Lesungen auf eDiscovery für März 2021

From data breach economics and vulnerabilities to private-equity investments and vendor...

Fünf großartige Lesungen auf eDiscovery für Februar 2021

From litigation trends and legal tech investing to facial recognition and...

Fünf großartige Lesungen auf eDiscovery für Januar 2021

From eDiscovery business confidence and operational metrics to merger and acquisition...

Fünf großartige Lesungen auf eDiscovery für Dezember 2020

May the peace and joy of the holiday season be with...

Cobra Legal Solutions erhält Investitionen von Blue Sage Capital

According to Eric Weiner, Partner at Blue Sage, “We are excited...

Konzern Z? Zapproved Releases von ZDiscovery Platform

According to the announcement, Monica Enand, Zapproved Founder and CEO, shared,...

Kopf in die Wolken? CloudNine Releases Review-

According to Tony Caputo, CEO of CloudNine, “CloudNine is 100% dedicated...

Alle für Eins und Eins für Alle? Epiq startet einheitliche digitale Kundenerfahrung

According to the announcement, Epiq Access is available globally and provides...

Ein wärmender Optimismus? Frühjahr 2021 eDiscovery Konfidenzumfrage

The eDiscovery Business Confidence Survey is a nonscientific quarterly survey designed...

Kaltes Wetter Catch? Umfrage zu Predictive Coding Technologien und Protokollen — Ergebnisse des Frühjahrs 2021

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual...

Kommst du aus dem Wald? Achtzehn Beobachtungen zum Vertrauen in eDiscovery im Winter 2021

In the winter of 2021, 85.0% of eDiscovery Business Confidence Survey...

Probleme, die sich auf die Geschäftsentwicklung von eDiscovery auswirken: Ein Überblick über den

In the winter of 2021, 43.3% of respondents viewed budgetary constraints...