Cybersecurity uitdagingen voor kunstmatige intelligentie: rekening houdend met de AI-levenscyclus

Artificial Intelligence (AI) is influencing people’s everyday lives and playing a key role in digital transformation through its automated decision-making capabilities. The benefits of this emerging technology are significant, but so are the concerns. In this recent report, The EU Agency for Cybersecurity (ENISA) warns that AI may open new avenues in manipulation and attack methods, as well as new privacy and data protection challenges.

en flag
nl flag
et flag
fi flag
fr flag
de flag
pt flag
ru flag
es flag

Noot van de redactie: het Agentschap van de Europese Unie voor cyberbeveiliging, ENISA, is het agentschap van de Unie dat zich inzet voor het bereiken van een hoog gemeenschappelijk niveau van cyberbeveiliging in heel Europa. In december 2020 publiceerde ENISA het rapport AI Cybersecurity Challenges - Threat Landscape for Artificial Intelligence. Het rapport presenteert de actieve mapping van het AI cybersecurity ecosysteem en het Threat Landscape van het Agentschap. Als onderdeel van het rapport wordt een generiek levenscyclusreferentiemodel voor AI verstrekt om een gestructureerde en methodische benadering mogelijk te maken om de verschillende facetten van AI te begrijpen. Deze generieke AI-levenscyclus kan gunstig zijn voor juridische, zakelijke en informatiebeveiligingsprofessionals in het eDiscovery ecosysteem die cyberbeveiliging en de relatie met AI overwegen.

AI Cybersecurity Challenges - Agentschap van de Europese Unie voor cyberbeveiliging

Rapport-uittreksel over AI-levenscyclus gedeeld met toestemming*

AI-levenscyclusfasen

Afbeelding - Algemeen referentiemodel voor AI-levenscyclus

Algemeen referentiemodel AI-levenscyclus

In deze sectie bieden we een korte definitie voor elke fase van de AI-levenscyclus en een samenvatting van de afzonderlijke stappen die het gaat („Fase in a Nutshell”).

Definitie zakelijk doel

Alvorens AI-applicatie/systeemontwikkeling uit te voeren, is het belangrijk dat de gebruikersorganisatie de zakelijke context van de AI-toepassing/-systeem en de gegevens die nodig zijn om de bedrijfsdoelen van de AI-toepassing te bereiken, evenals de bedrijfsstatistieken die moeten worden gebruikt om te beoordelen in welke mate deze doelstellingen zijn bereikt.

Definitiefase van bedrijfsdoel in een notendop: Identificeer het bedrijfsdoel van de AI-toepassing/-systeem. Koppel het doel aan de vraag die moet worden beantwoord door het AI-model dat in de toepassing/het systeem moet worden gebruikt. Identificeer het modeltype op basis van de vraag.

Gegevensinname

Gegevensinname is de AI-levenscyclusfase waarin gegevens worden verkregen uit meerdere bronnen (ruwe gegevens kunnen van welke vorm dan ook gestructureerd of ongestructureerd zijn) om multidimensionale gegevenspunten, vectoren genoemd, samen te stellen voor onmiddellijk gebruik of voor opslag, zodat ze later kunnen worden benaderd en gebruikt. Data Ingestion ligt aan de basis van elke AI-toepassing. Gegevens kunnen rechtstreeks uit de bronnen worden opgenomen op een realtime manier, op een continue manier ook wel streaming genoemd, of door het importeren van gegevensbatches, waarbij gegevens periodiek worden geïmporteerd in grote macrobatches of in kleine microbatches.

Verschillende opnamemechanismen kunnen gelijktijdig in dezelfde toepassing actief zijn, waarbij batch- en stroomopname van dezelfde gegevensstromen worden gesynchroniseerd of ontkoppeld. Innamecomponenten kunnen ook gegevensinnotatie specificeren, d.w.z. of opname wordt uitgevoerd met of zonder metagegevens (gegevenswoordenboek of ontologie/taxonomie van de gegevenstypen). Vaak wordt de toegangscontrole uitgevoerd tijdens het modelleren van de privacystatus van de gegevens (persoonlijke-/ niet-persoonlijke gegevens.), waarbij geschikte privacybewaartechnieken worden gekozen en rekening wordt gehouden met de haalbare afweging tussen privacyimpact en analytische nauwkeurigheid. De naleving van het toepasselijke EU-rechtskader inzake privacy en gegevensbescherming moet in alle gevallen worden gewaarborgd.

De aan gegevens toegekende privacystatus wordt gebruikt om de AI-applicatie Service Level Agreement (SLA) te definiëren in overeenstemming met het toepasselijke EU-rechtskader inzake privacy en gegevensbescherming, waaronder onder andere de mogelijkheid voor inspectie/audit bevoegde regelgevende instanties (zoals gegevensbescherming) Autoriteiten). Het is belangrijk om op te merken dat bij het opnemen van gegevens een IT-governanceconflict kan ontstaan. Enerzijds worden gegevens door de eigenaars gecompartimenteerd om toegangscontrole en privacybescherming te waarborgen; anderzijds moeten ze worden geïntegreerd om analyses mogelijk te maken. Vaak zijn er verschillende beleidsregels en beleidsregels van toepassing op items van dezelfde categorie. Voor multimediagegevensbronnen kunnen toegangsprotocollen zelfs een Digital Right Management (DRM) -benadering volgen waarbij het bewijs van de bewaring eerst moet worden onderhandeld met licentieservers. Het is de verantwoordelijkheid van de ontwerper van de AI-toepassing om ervoor te zorgen dat de opname plaatsvindt met inachtneming van het beleid van gegevensleveranciers inzake gegevensgebruik en het toepasselijke EU-rechtskader inzake privacy en gegevensbescherming.

Gegevensverzameling/opname fase in een notendop: Identificeer de (dynamische) gegevens die moeten worden verzameld en de bijbehorende contextmetagegevens. Organiseer de opname volgens de vereisten van de AI-toepassing en importeer gegevens op een stream, batch of multimodale manier.

Data Exploratie

Data Exploration is de fase waarin inzichten worden ontleend aan opgenomen gegevens. Hoewel het kan worden overgeslagen in sommige AI-toepassingen waar gegevens goed worden begrepen, is het meestal een zeer tijdrovende fase van de AI-levenscyclus. In dit stadium is het belangrijk om het type gegevens dat is verzameld te begrijpen. Er moet een belangrijk onderscheid worden gemaakt tussen de verschillende mogelijke soorten gegevens, waarbij numeriek en categorisch de meest prominente categorieën zijn, naast multimediagegevens (bijvoorbeeld beeld, audio, video, enz.). Numerieke gegevens lenen zich voor plotten en maken het mogelijk beschrijvende statistieken te berekenen en te controleren of gegevens passen bij eenvoudige parametrische distributies zoals de Gaussiaanse distributies. Ontbrekende gegevenswaarden kunnen ook worden gedetecteerd en verwerkt in de exploratiefase. Categorische variabelen zijn variabelen die twee of meer categorieën hebben, maar zonder een intrinsieke volgorde. Als de variabele een duidelijke volgorde heeft, wordt deze beschouwd als een ordinale variabele.

Data Validation/Exploration in a notenshell: Controleer of gegevens passen bij een bekende statistische distributie, hetzij per component (mono-variate distributies) of als vectoren (multi-variate distributie). Schat de corresponderende statistische parameters.

Voorverwerking van gegevens

De voorverwerking van gegevens maakt gebruik van technieken om de gegevens te reinigen, te integreren en te transformeren. Dit proces is gericht op het verbeteren van de gegevenskwaliteit die de prestaties en efficiëntie van het totale AI-systeem zal verbeteren door tijd te besparen tijdens de trainingsfase van de analytische modellen en door een betere kwaliteit van de resultaten te bevorderen. In het bijzonder duidt de term data opschonen technieken aan om inconsistenties te corrigeren, ruis te verwijderen en gegevens te anonimiseren/pseudonimiseren.

Gegevensintegratie brengt gegevens uit meerdere bronnen samen, terwijl gegevenstransformatie de gegevens voorbereidt op het voeden van een analytisch model, meestal door het in een numerieke indeling te coderen. Een typische codering is één-hot codering die gebruikt wordt om categorische variabelen als binaire vectoren weer te geven. Deze codering vereist eerst dat de categorische waarden worden toegewezen aan integerwaarden. Vervolgens wordt elke waarde van het geheel getal weergegeven als een binaire vector die alle nulwaarden bevat behalve de positie van het gehele getal, dat is gemarkeerd met een 1.

Eenmaal geconverteerd naar getallen, kunnen gegevens worden onderworpen aan verdere soorten transformatie: opnieuw schalen, standaardisatie, normalisatie en labeling. Aan het einde van dit proces wordt een numerieke gegevensset verkregen, die de basis zal vormen voor training, testen en evalueren van het AI-model.

Aangezien het hebben van een voldoende grote dataset een van de belangrijkste succesfactoren is bij het correct trainen van een model, is het gebruikelijk om verschillende gegevensvergrotingstechnieken toe te passen op die trainingsdatasets die te klein zijn. Het is bijvoorbeeld gebruikelijk om in een trainingsdataset verschillende geschaalde of geroteerde versies van afbeeldingen op te nemen, die zich al in die dataset bevonden. Een ander voorbeeld van data augmentation techniek die gebruikt kan worden bij het verwerken van tekst is het vervangen van een woord door zijn synoniem. Zelfs in die gevallen waarin de trainingsdataset groot genoeg is, kunnen gegevensvergrotingstechnieken het uiteindelijke getrainde model verbeteren. De gegevens kunnen ook worden uitgebreid om de kwantiteit en de diversiteit van de behandelde scenario's te vergroten. Gegevensvergroting bestaat meestal uit het toepassen van transformaties waarvan bekend is dat ze labelbehoud zijn, dat wil zeggen dat het model de uitvoer (namelijk voorspelling) niet mag wijzigen wanneer het wordt gepresenteerd met de getransformeerde gegevensitems. Gegevensvergroting kan dienen om de prestaties van een model te verbeteren en in het bijzonder de robuustheid ervan tegen goedaardige verstoringen. Een taak waar standaard gegevensvergroting wordt gebruikt, is de indeling van afbeeldingen, waarbij gegevens kunnen worden uitgebreid door bijvoorbeeld vertalingen, rotaties en vervaging filters toe te passen.

Voorverwerking van gegevens in een notendop: Converteer opgenomen gegevens naar een metrisch (numeriek) formaat, integreer gegevens uit verschillende bronnen, verwerk missing/null-waarden door interpolatie, verdicht om gegevensschaarsheid te verminderen, de-ruis, filter uitschieters, wijzig representatie-interval, anonimiseerde/pseudonimiseer gegevens, verbeter gegevens.

Selectie van functie

Feature Selection (in het algemeen feature engineering) is de fase waarin het aantal componenten of objecten (ook wel dimensies genoemd) waaruit elke gegevensvector bestaat, wordt verminderd door de componenten te identificeren waarvan wordt aangenomen dat ze het meest betekenisvol zijn voor het AI-model. Het resultaat is een gereduceerde dataset, omdat elke gegevensvector minder componenten bevat dan voorheen. Naast de kostenreductie van berekeningen kan functieselectie nauwkeuriger modellen opleveren.

Daarnaast zijn modellen gebouwd op de top van lagere dimensionale gegevens begrijpelijker en verklaarbaarder. Deze fase kan ook worden ingebed in de modelbouwfase (bijvoorbeeld bij het verwerken van beeld- of spraakgegevens), die in de volgende sectie besproken moeten worden.

Selectie van objecten in een notendop: Identificeer de dimensies van de gegevensset die rekening houden met een globale parameter, bijvoorbeeld de algemene variantie van de labels. Projectgegevens worden langs deze dimensies ingesteld, waarbij de andere worden weggegooid.

Model Selectie/Gebouw

Deze fase voert de selectie/opbouw uit van het beste AI-model of -algoritme voor het analyseren van de gegevens. Het is een moeilijke taak, vaak onderhevig aan vallen en opstaan. Op basis van het bedrijfsdoel en het type beschikbare gegevens kunnen verschillende soorten AI-technieken worden gebruikt. De drie algemeen geïdentificeerde hoofdcategorieën zijn onder toezicht leren, leren zonder toezicht en verstevigingsmodellen. Begeleide technieken hebben betrekking op gelabelde gegevens: het AI-model wordt gebruikt om de mapping tussen invoervoorbeelden en de doeluitvoer te leren.

Onder toezicht staande modellen kunnen worden ontworpen als classifiers, die tot doel hebben een klasselabel te voorspellen, en Regressors, die tot doel hebben een numerieke waardefunctie van de ingangen te voorspellen. Hier zijn enkele veelvoorkomende algoritmen Support Vector Machines, Naïeve Bayes, Hidden Markov Model, Bayesiaanse netwerken en Neural Networks.

Ongesuperviseerde technieken gebruiken niet-gelabelde trainingsgegevens om relaties te beschrijven en eruit te halen, ofwel met als doel het in clusters te organiseren, de koppeling tussen gegevensinvoerruimte te benadrukken, de verspreiding van gegevens samen te vatten en de datadimensionaliteit te verminderen (dit onderwerp werd al behandeld als een voorlopige stap voor het voorbereiden van gegevens in de sectie over selectie van functies). Versterking van het leren brengt situaties in kaart met acties, door gedragingen te leren die een gewenste beloningsfunctie maximaliseren.

Hoewel het type trainingsgegevens, al dan niet gelabeld, de sleutel is voor het type techniek dat moet worden gebruikt en geselecteerd, kunnen modellen ook vanuit het niets worden opgebouwd (hoewel dit nogal onwaarschijnlijk is), waarbij de data scientist het model ontwerpt en codeert, met de inherente software engineering technieken; of het bouwen van een model door het combineren van een samenstelling van methoden. Het is belangrijk op te merken dat modelselectie (namelijk het kiezen van het model aangepast aan de gegevens) verdere transformatie van de ingangsgegevens kan veroorzaken, aangezien verschillende AI-modellen verschillende numerieke coderingen van de vectoren van invoergegevens vereisen.

Over het algemeen omvat het selecteren van een model ook het kiezen van zijn trainingsstrategie. In het kader van onder toezicht staande leeractiviteiten omvat training bijvoorbeeld het berekenen (een leerfunctie van) het verschil tussen de output van het model wanneer het elk gegeven gegeven van de trainingsset als input ontvangt, en het label van D. Dit resultaat wordt gebruikt om het model te wijzigen om het verschil te verkleinen.

Veel trainingsalgoritmen voor het minimaliseren van fouten zijn beschikbaar, de meeste zijn gebaseerd op verloopafdaling. Trainingsalgoritmen hebben hun eigen hyperparameters, inclusief de functie die moet worden gebruikt om de modelfout te berekenen (bijv. gemiddelde kwadraat fout), en de batchgrootte, d.w.z. het aantal gelabelde monsters dat aan het model moet worden ingevoerd om een waarde te verzamelen van de fout die moet worden gebruikt voor het aanpassen van het model zelf.

AI-modelselectie in een notendop: Kies het type AI-model dat geschikt is voor de toepassing. Codeer de vectoren voor gegevensinvoer om overeen te komen met het gewenste invoerformaat van het model.

Model Training

Na het selecteren van een AI-model, dat in de context van dit referentiemodel meestal verwijst naar een Machine Learning (ML) -model, begint de trainingsfase van het AI-systeem. In de context van onder toezicht leren moet het geselecteerde ML-model een trainingsfase doorlopen, waarbij interne modelparameters zoals gewichten en vooringenomenheid uit de gegevens worden geleerd. Hierdoor kan het model inzicht krijgen in de gegevens die worden gebruikt en daardoor beter in staat worden om ze te analyseren. Nogmaals, training omvat het berekenen (een functie van) het verschil tussen de uitvoer van het model wanneer het elke trainingsset data item D ontvangt als input, en het label van D. Dit resultaat wordt gebruikt om het model te wijzigen om het verschil tussen het afgeleide resultaat en het gewenste resultaat te verkleinen en leidt dus geleidelijk tot nauwkeurigere, verwachte resultaten.

De trainingsfase zal het ML-model voeden met batches invoervectoren en zal de geselecteerde leerfunctie gebruiken om de interne parameters (gewichten en bias) van het model aan te passen op basis van een meting (bijv. lineair, kwadratisch, logverlies) van het verschil tussen de uitvoer van het model en de labels. Vaak wordt de beschikbare gegevensset in dit stadium gesplitst in een trainingsset, die wordt gebruikt voor het instellen van de parameters van het model, en een testset, waarbij evaluatiecriteria (bijv. foutenpercentage) alleen worden vastgelegd om de prestaties van het model buiten de trainingsset te beoordelen. Kruisvalidatieschema's verdelen willekeurig meerdere keren een gegevensset in een training en een testgedeelte van vaste afmetingen (bv. 80% en 20% van de beschikbare gegevens) en herhalen vervolgens de trainings- en validatiefasen op elke partitie.

AI Model Training in a Nutshell: Pas het geselecteerde trainingsalgoritme toe met de juiste parameters om het gekozen model aan te passen aan de hand van trainingsgegevens. Valideer de modeltraining op testset volgens een kruisvalidatiestrategie.

Model Tuning

Modelafstemming overlapt meestal met modeltraining, omdat afstemmen meestal binnen het trainingsproces wordt overwogen. We hebben ervoor gekozen om de twee fasen in de AI-levenscyclus te scheiden om de verschillen in termen van functionele werking te benadrukken, hoewel het hoogstwaarschijnlijk is dat ze in de meeste AI-systemen beide deel uitmaken van het trainingsproces.

Bepaalde parameters definiëren concepten op hoog niveau over het model, zoals hun leerfunctie of modaliteit, en kunnen niet worden geleerd van invoergegevens. Deze speciale parameters, vaak hyperparameters genoemd, moeten handmatig worden ingesteld, hoewel ze onder bepaalde omstandigheden automatisch kunnen worden afgestemd door de ruimte van de modelparameters te doorzoeken. Deze zoekopdracht, die hyper-parameteroptimalisatie wordt genoemd, wordt vaak uitgevoerd met behulp van klassieke optimalisatietechnieken zoals Grid Search, maar Random Search en Bayesiaanse optimalisatie kunnen worden gebruikt. Het is belangrijk om op te merken dat de Model Tuning fase gebruik maakt van een speciale dataset (vaak validatieset genoemd), die verschilt van de trainingen en testsets die in de vorige fasen werden gebruikt. Een evaluatiefase kan ook worden overwogen om de outputs limieten te schatten en om te beoordelen hoe het model zich zou gedragen in extreme omstandigheden, bijvoorbeeld door gebruik te maken van foute/onveilige datasets. Het is belangrijk op te merken dat, afhankelijk van het aantal hyperparameters dat moet worden aangepast, het proberen van alle mogelijke combinaties misschien gewoon niet haalbaar is.

AI Model Tuning in a Nutshell: Pas modelaanpassing toe op de hyperparameters van het getrainde AI-model met behulp van een validatiegegevensset, afhankelijk van de implementatieconditie.

Leren overdragen

In deze fase, de gebruikersorganisatie bronnen een vooraf getraind en vooraf afgestemd AI-model en gebruikt het als uitgangspunt voor verdere training om snellere en betere convergentie te bereiken. Dit is vaak het geval wanneer er weinig gegevens beschikbaar zijn voor training. Opgemerkt moet worden dat alle hierboven beschreven stappen (tuning, testen, enz.) Ook van toepassing zijn op overdracht leren. Bovendien, aangezien in veel gevallen transfer-learning wordt toegepast, kan men transfer-learning beschouwen als een onderdeel van de modeltrainingsfase, aangezien transfer-learning meestal als uitgangspunt dient voor het trainingsalgoritme. Om een breder bereik te garanderen, onderscheiden we overdracht learning in een afzonderlijke fase in de AI-levenscyclus die hier wordt gepresenteerd.

Transfer Learning in a Nutshell: Bron een vooraf getraind AI-model in hetzelfde toepassingsdomein en pas indien nodig aanvullende training toe om de nauwkeurigheid in productie te verbeteren.

Model Implementatie

Een Machine Learning-model brengt kennis aan een organisatie pas wanneer de voorspellingen beschikbaar zijn voor eindgebruikers. Implementatie is het proces van het nemen van een getraind model en het ter beschikking stellen van de gebruikers.

Modelimplementatie in een notendop: genereer een in-productie incarnatie van het model als software, firmware of hardware. Implementeer de modelincarnatie naar edge of cloud, waarbij in-productie gegevensstromen worden verbonden.

Model Onderhoud

Na de implementatie moeten AI-modellen continu worden bewaakt en onderhouden om conceptwijzigingen en potentiële conceptverschuivingen die zich tijdens hun werking kunnen voordoen, aan te kunnen. Een verandering van concept vindt plaats wanneer de betekenis van een input in het model (of van een uitvoerlabel) verandert, bijvoorbeeld als gevolg van gewijzigde regelgeving. Een concept drift treedt op wanneer de verandering niet drastisch is, maar langzaam naar voren komt. Drift is vaak te wijten aan sensorencrustment, d.w.z. langzame evolutie in de tijd in sensorresolutie (het kleinste detecteerbare verschil tussen twee waarden) of het totale representatie-interval. Een populaire strategie voor het afhandelen van modelonderhoud is op Windows gebaseerd opnieuw verdienen, waarbij gebruik wordt gemaakt van recente gegevenspunten voor het bouwen van een ML-model. Een andere nuttige techniek voor AI-modelonderhoud is back-testing. In de meeste gevallen weet de gebruikersorganisatie wat er gebeurde in de nasleep van de acceptatie van het AI-model en kan de modelvoorspelling vergelijken met de werkelijkheid. Dit benadrukt de wijzigingen in het concept: als een onderliggend concept verandert, zien organisaties een daling van de prestaties. Een andere manier om deze conceptdrifts te detecteren kan inhouden dat de invoerdataset statistisch wordt gekarakteriseerd die wordt gebruikt voor het trainen van het AI-model, zodat het mogelijk is om deze trainingsdataset te vergelijken met de huidige invoergegevens in termen van statistische eigenschappen. Significante verschillen tussen datasets kunnen wijzen op de aanwezigheid van potentiële conceptverschuivingen die een herverearning-proces kunnen vereisen, zelfs voordat de output van het systeem aanzienlijk wordt beïnvloed. Op deze manier kunnen hertraining/herverdieningsprocessen, die mogelijk tijdrovend en hulpbronnenverbruiken, alleen worden uitgevoerd wanneer dat nodig is in plaats van periodiek, zoals in de hierboven genoemde window-based relearning strategieën. Modelonderhoud weerspiegelt ook de noodzaak om de bedrijfsdoelen en bedrijfsmiddelen te monitoren die in de loop van de tijd kunnen evolueren en dienovereenkomstig het model zelf kunnen beïnvloeden.

Model Maintenance in a Nutshell: Monitor de ML-gevolgresultaten van het geïmplementeerde AI-model, evenals de invoergegevens die door het model worden ontvangen, om mogelijke conceptwijzigingen of -drifts te detecteren. Hertrain het model wanneer dat nodig is.

Zakelijk inzicht

Het bouwen van een AI-model is vaak duur en altijd tijdrovend. Het brengt verschillende bedrijfsrisico's met zich mee, waaronder het niet hebben van een zinvolle impact op de gebruikersorganisatie en het missen van in-productie deadlines na voltooiing. Business understanding is het stadium waarin bedrijven die AI-modellen implementeren inzicht krijgen in de impact van AI op hun bedrijf en proberen de kans op succes te maximaliseren.

Business Understanding in a Nutshell: Beoordeel de waardepropositie van het geïmplementeerde AI-model. Schat de impact van het bedrijf (vóór implementatie) en verifieer (na implementatie).

Artificial Intelligence Cybersecurity Uitdagingen

Lees het volledige rapport (pdf)

ENISA-rapport — uitdagingen voor AI Cybersecurity

Lees de originele communicatie.

*Gedeeld met toestemming onder Creative Commons — Naamsvermelding 4.0 International (CC BY 4.0) — licentie.

Extra lezen

Stijgende kosten? Overweegt de economie van datalek

Geluk van de Ieren? Commissie voor gegevensbescherming van Ierland publiceert jaarverslag

Bron: complexDiscovery

SPAC-aanval? Cellebrite gaat naar het worden van een publieke onderneming

According to Adam Clammer, Chief Executive Officer of TWC Tech Holdings,...

Cobra Legal Solutions ontvangt investeringen van Blue Sage Capital

According to Eric Weiner, Partner at Blue Sage, “We are excited...

eDiscovery Fusies, overnames en investeringen in Q1 2021

From Relativity and Reveal to Compliance (System One) and Veristar, the...

Cyber Risico en Beloning? Kroll verwerft Redscan

According to Redscan CEO, Mike Fenton, “Merging Redscan’s innovative culture and...

A New Era in eDiscovery? Framing Market Growth Through the Lens of Six Eras

There are many excellent resources for considering chronological and historiographical approaches...

Een eDiscovery Market Size Mashup: 2020-2025 Wereldwijd overzicht van software en services

While the Compound Annual Growth Rate (CAGR) for worldwide eDiscovery software...

De basislijn resetten? EDiscovery Marktgrootte aanpassingen voor 2020

An unanticipated pandemeconomic-driven retraction in eDiscovery spending during 2020 has resulted...

Thuis of weg? eDiscovery Collection Market Overwegingen voor afmetingen en prijzen

One of the key home (onsite) or away (remote) decisions that...

Vijf geweldige lezingen op eDiscovery voor maart 2021

From data breach economics and vulnerabilities to private-equity investments and vendor...

Vijf geweldige lezingen op eDiscovery voor februari 2021

From litigation trends and legal tech investing to facial recognition and...

Vijf geweldige lezingen op eDiscovery voor januari 2021

From eDiscovery business confidence and operational metrics to merger and acquisition...

Vijf geweldige lezingen op eDiscovery voor december 2020

May the peace and joy of the holiday season be with...

Cobra Legal Solutions ontvangt investeringen van Blue Sage Capital

According to Eric Weiner, Partner at Blue Sage, “We are excited...

Corporatie Z? Zgoedgekeurde versies van het ZDiscovery Platform

According to the announcement, Monica Enand, Zapproved Founder and CEO, shared,...

Hoofd in de Wolken? CloudNine releases review updates

According to Tony Caputo, CEO of CloudNine, “CloudNine is 100% dedicated...

Allemaal voor één en één voor allen? Epiq lanceert Unified Digital Client Experience

According to the announcement, Epiq Access is available globally and provides...

Een Opwarming Optimisme? Voorjaar 2021 eDiscovery Bedrijfsvertrouwen Onderzoek

The eDiscovery Business Confidence Survey is a nonscientific quarterly survey designed...

Koud weer Catch? Onderzoek naar voorspellende coderingstechnologieën en protocollen — Resultaten voorjaar 2021

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual...

Kom je uit het bos? Achttien observaties over eDiscovery Bedrijfsvertrouwen in de winter van 2021

In the winter of 2021, 85.0% of eDiscovery Business Confidence Survey...

Problemen die van invloed zijn op de bedrijfsprestaties van eDiscovery: een overzicht

In the winter of 2021, 43.3% of respondents viewed budgetary constraints...