Défis de la cybersécurité pour l'intelligence artificielle : tenir compte du cycle de vie de l'IA

Artificial Intelligence (AI) is influencing people’s everyday lives and playing a key role in digital transformation through its automated decision-making capabilities. The benefits of this emerging technology are significant, but so are the concerns. In this recent report, The EU Agency for Cybersecurity (ENISA) warns that AI may open new avenues in manipulation and attack methods, as well as new privacy and data protection challenges.

en flag
nl flag
et flag
fi flag
fr flag
de flag
pt flag
ru flag
es flag

Note de l'éditeur : L'Agence européenne pour la cybersécurité, ENISA, est l'agence de l'Union européenne dédiée à atteindre un niveau commun élevé de cybersécurité dans toute l'Europe. En décembre 2020, l'ENISA a publié le rapport AI Cybersécurité Challenges - Threat Landscape for Artificial Intelligence. Le rapport présente la cartographie active de l'écosystème de cybersécurité de l'IA et de son paysage des menaces. Dans le cadre du rapport, un modèle générique de référence du cycle de vie de l'IA est fourni afin de permettre une approche structurée et méthodique pour comprendre les différentes facettes de l'IA. Ce cycle de vie générique de l'IA peut être bénéfique pour les professionnels du droit, des affaires et de la sécurité des informations de l'écosystème eDiscovery qui commencent à considérer la cybersécurité et sa relation avec l'IA.

Les défis de la cybersécurité de l'IA - Agence de l'Union européenne pour la cybersécurité

Extrait du rapport sur le cycle de vie de l'IA partagé avec autorisation*

Phases du cycle de vie de l'IA

Figure : modèle de référence générique du cycle de vie de l'IA

Modèle de référence générique du cycle de vie de l'IA

Dans cette section, nous fournissons une courte définition de chaque étape du cycle de vie de l'IA et récapitulons les étapes individuelles qu'il implique (« Phase in a Nutshell »).

Définition de l'objectif commercial

Avant de réaliser un développement d'application/système d'IA, il est important que l'organisation utilisateur comprenne pleinement le contexte commercial de l'application/système IA et les données nécessaires pour atteindre les objectifs commerciaux de l'application IA, ainsi que les mesures métier à utiliser pour évaluer le degré de ces objectifs ont été atteints.

Phase de définition des objectifs opérationnels en bref : Identifiez l'objectif commercial de l'application/système d'IA. Relier le but à la question à laquelle le modèle IA doit répondre à l'application ou au système. Identifiez le type de modèle en fonction de la question.

Ingestion des données

L'ingestion de données est l'étape du cycle de vie de l'IA où les données sont obtenues à partir de sources multiples (les données brutes peuvent être structurées ou non structurées) pour composer des points de données multidimensionnels, appelés vecteurs, pour une utilisation immédiate ou pour le stockage afin d'être accessibles et utilisés ultérieurement. L'ingestion de données est à la base de toute application IA. Les données peuvent être ingérées directement à partir de leurs sources en temps réel, de manière continue aussi appelée streaming, ou en important des lots de données, où les données sont importées périodiquement dans de grands macro-lots ou en petits lots.

Différents mécanismes d'ingestion peuvent être actifs simultanément dans la même application, synchronisant ou découplage l'ingestion de lots et de flux des mêmes flux de données. Les composants d'ingestion peuvent également spécifier des annotations de données, c'est-à-dire si l'ingestion est effectuée avec ou sans métadonnées (dictionnaire de données ou ontologie/taxonomie des types de données). Souvent, le contrôle d'accès opère lors de l'ingestion de données modélisant le statut de confidentialité des données (données personneles/non personnelles.), en choisissant des techniques appropriées de préservation de la vie privée et en tenant compte du compromis réalisable entre l'impact sur la vie privée et la précision analytique. Le respect du cadre juridique applicable de l'UE en matière de protection de la vie privée et des données doit être assuré dans tous les cas.

Le statut de confidentialité attribué aux données est utilisé pour définir l'accord de niveau de service (SLA) des applications IA conformément au cadre juridique applicable de l'UE en matière de confidentialité et de protection des données, y compris, entre autres choses, la possibilité d'inspection/audit des autorités réglementaires compétentes (telles que la protection des données). Autorités). Il est important de noter qu'en ingérant des données, un conflit de gouvernance des TI peut survenir. D'une part, les données sont cloisonnées par leurs propriétaires afin d'assurer le contrôle de l'accès et la protection de la vie privée ; d'autre part, elles doivent être intégrées pour permettre l'analyse. Souvent, différentes stratégies et règles de stratégie s'appliquent aux éléments de la même catégorie. Pour les sources de données multimédias, les protocoles d'accès peuvent même suivre une approche de gestion des droits numériques (DRM) où la preuve de retenue doit d'abord être négociée avec les serveurs de licences. Il incombe au concepteur de l'application IA de s'assurer que l'ingestion est effectuée dans le respect des politiques des fournisseurs de données en matière d'utilisation des données et du cadre juridique applicable de l'UE en matière de protection de la vie privée et de protection des données.

Phase de collecte des données/ingestion en un mot : Identifiez les données d'entrée (dynamiques) à collecter et les métadonnées de contexte correspondantes. Organiser l'ingestion en fonction des exigences de l'application IA, en important les données en flux, en lots ou en mode multimodal.

L'exploration des données

L'exploration des données est l'étape où les informations commencent à être tirées des données ingérées. Bien qu'il puisse être ignoré dans certaines applications IA où les données sont bien comprises, il s'agit généralement d'une phase très longue du cycle de vie de l'IA. À ce stade, il est important de comprendre le type de données recueillies. Une distinction clé doit être établie entre les différents types possibles de données, les catégories numériques et catégoriques étant les catégories les plus importantes, parallèlement aux données multimédias (par exemple, image, audio, vidéo, etc.). Les données numériques se prêtent au tracé et permettent de calculer des statistiques descriptives et de vérifier si les données correspondent à des distributions paramétriques simples comme la distribution gaussienne. Les valeurs de données manquantes peuvent également être détectées et traitées au stade de l'exploration. Les variables catégoriques sont celles qui ont deux catégories ou plus, mais sans ordre intrinsèque. Si la variable a un ordre clair, elle est considérée comme une variable ordinale.

Validation/Exploration des données/Exploration en un mot : Vérifiez si les données correspondent à une distribution statistique connue, soit par composant (distributions mono-variables), soit en tant que vecteurs (distribution multi-variables). Estimez les paramètres statistiques correspondants.

Prétraitement des données

L'étape de prétraitement des données utilise des techniques de nettoyage, d'intégration et de transformation des données. Ce processus vise à améliorer la qualité des données, ce qui améliorera les performances et l'efficacité de l'ensemble du système IA en gagnant du temps pendant la phase de formation des modèles analytiques et en promouvant une meilleure qualité des résultats. Plus précisément, le terme « nettoyage des données » désigne les techniques permettant de corriger les incohérences, d'éliminer le bruit et d'anonymiser ou de pseudonymiser les données.

L'intégration des données regroupe les données provenant de sources multiples, tandis que la transformation des données prépare les données pour alimenter un modèle analytique, généralement en les codant dans un format numérique. Un codage typique est un codage à chaud utilisé pour représenter les variables catégoriques en tant que vecteurs binaires. Ce codage nécessite d'abord que les valeurs catégoriques soient mappées aux valeurs entières. Ensuite, chaque valeur entière est représentée sous la forme d'un vecteur binaire qui est toutes les valeurs zéro sauf la position de l'entier, qui est marqué par un 1.

Une fois converties en nombres, les données peuvent être soumises à d'autres types de transformation : redimensionnement, standardisation, normalisation et étiquetage. À la fin de ce processus, un ensemble de données numériques est obtenu, qui servira de base à la formation, à l'essai et à l'évaluation du modèle IA.

Étant donné que disposer d'un jeu de données suffisamment volumineux est l'un des principaux facteurs de réussite lors de la formation correcte d'un modèle, il est courant d'appliquer différentes techniques d'augmentation de données aux jeux de données de formation trop petits. Par exemple, il est courant d'inclure dans un jeu de données de formation différentes versions d'images à l'échelle ou en rotation, qui se trouvaient déjà dans ce jeu de données. Un autre exemple de technique d'augmentation des données qui peut être utilisée lors du traitement du texte est le remplacement d'un mot par son synonyme. Même dans les cas où l'ensemble de données de formation est assez volumineux, les techniques d'augmentation des données peuvent améliorer le modèle formé final. Les données peuvent également être augmentées afin d'en accroître la quantité et la diversité des scénarios couverts. L'augmentation des données consiste généralement à appliquer des transformations dont on sait qu'elles conservent les étiquettes, c'est-à-dire que le modèle ne devrait pas modifier sa production (c'est-à-dire la prédiction) lorsqu'il est présenté avec les éléments de données transformés. L'augmentation des données peut servir à améliorer les performances d'un modèle et, en particulier, sa robustesse aux perturbations bénignes. Une tâche dans laquelle l'augmentation des données est utilisée par défaut est la classification des images, où les données peuvent être augmentées par exemple en appliquant des traductions, des rotations et des filtres floues.

Prétraitement des données en un mot : Convertir les données ingérées dans un format métrique (numérique), intégrer les données provenant de différentes sources, gérer les valeurs manquants/nulles par interpolation, densifier pour réduire la parsité des données, débruit, filtrer les valeurs aberrantes, modifier l'intervalle de représentation, anonymiser les données, augmenter les données.

Sélection d'entités

La sélection d'entités (en ingénierie générale des entités) est l'étape où le nombre de composants ou d'entités (également appelés dimensions) composant chaque vecteur de données est réduit, en identifiant les composants qui sont considérés comme les plus significatifs pour le modèle IA. Le résultat est un jeu de données réduit, car chaque vecteur de données comporte moins de composants qu'auparavant. Outre la réduction des coûts de calcul, la sélection de fonctionnalités peut apporter des modèles plus précis.

De plus, les modèles basés sur des données de moindre dimension sont plus compréhensibles et explicables. Cette étape peut également être intégrée dans la phase de construction du modèle (par exemple lors du traitement de données d'image ou de parole), qui sera discutée dans la section suivante.

Sélection d'entités en un mot : Identifiez les dimensions de l'ensemble de données qui tiennent compte d'un paramètre global, par exemple, la variance globale des étiquettes. Ensemble de données de projet le long de ces dimensions, en écartant les autres.

Sélection de modèle/Construire

Cette étape effectue la sélection/construction du meilleur modèle ou algorithme d'IA pour l'analyse des données. C'est une tâche difficile, souvent soumise à des essais et des erreurs. En fonction de l'objectif de l'entreprise et du type de données disponibles, différents types de techniques d'IA peuvent être utilisés. Les trois grandes catégories couramment identifiées sont l'apprentissage supervisé, l'apprentissage non supervisé et les modèles d'apprentissage de renforcement. Les techniques supervisées traitent des données étiquetées : le modèle IA est utilisé pour apprendre le mappage entre les exemples d'entrée et les sorties cibles.

Les modèles supervisés peuvent être conçus en tant que Classifiers, dont le but est de prédire une étiquette de classe, et Régressors, dont le but est de prédire une fonction de valeur numérique des entrées. Voici quelques algorithmes courants sont les machines vectorielles de support, les Bayes naïves, le modèle Markov caché, les réseaux bayésiens et les réseaux neuronaux.

Les techniques non supervisées utilisent des données de formation non étiquetées pour décrire et en extraire les relations, soit dans le but de les organiser en grappes, de mettre en évidence l'association entre l'espace d'entrée des données, de résumer la distribution des données et de réduire la dimensionnalité des données (ce sujet a déjà été abordé comme étape pour la préparation des données dans la section sur la sélection des fonctions). L'apprentissage de renforcement mappe les situations avec des actions, en apprenant des comportements qui maximiseront une fonction de récompense souhaitée.

Bien que le type de données sur la formation, étiquetées ou non, soit essentiel pour le type de technique à utiliser et à sélectionner, des modèles peuvent également être construits à partir de zéro (bien que cela soit plutôt peu probable), avec le spécialiste des données qui conçoit et code le modèle, avec les techniques de génie logiciel inhérentes ; ou en construisant un modèle en combinant une composition de méthodes. Il est important de noter que la sélection du modèle (c'est-à-dire le choix du modèle adapté aux données) peut déclencher une transformation ultérieure des données d'entrée, car différents modèles IA exigent des codages numériques différents des vecteurs de données en entrée.

D'une manière générale, le choix d'un modèle comprend également le choix de sa stratégie de formation. Dans le contexte de l'apprentissage supervisé par exemple, la formation consiste à calculer (une fonction d'apprentissage de) la différence entre le résultat du modèle lorsqu'il reçoit chaque élément de données de l'ensemble de formation en entrée et l'étiquette de D. Ce résultat est utilisé pour modifier le modèle afin de diminuer la différence.

De nombreux algorithmes de formation pour minimiser les erreurs sont disponibles, la plupart d'entre eux basés sur la descente en gradient. Les algorithmes d'entraînement ont leurs propres hyperparamètres, y compris la fonction à utiliser pour calculer l'erreur du modèle (p. ex., erreur carrée moyenne), et la taille du lot, c'est-à-dire le nombre d'échantillons étiquetés à alimenter le modèle pour accumuler une valeur de l'erreur à utiliser pour adapter le modèle lui-même.

Sélection de modèle AI en un mot : Choisissez le type de modèle IA adapté à l'application. Encodez les vecteurs d'entrée de données pour qu'ils correspondent au format d'entrée préféré du modèle.

Modèles de formation

Après avoir sélectionné un modèle d'IA, qui dans le contexte de ce modèle de référence se réfère principalement à un modèle d'apprentissage automatique (ML), la phase de formation du système IA commence. Dans le contexte de l'apprentissage supervisé, le modèle de ML sélectionné doit passer par une phase de formation, au cours de laquelle les paramètres internes du modèle tels que les pondérations et les biais sont tirés des données. Cela permet au modèle de mieux comprendre les données utilisées et de devenir ainsi plus aptes à les analyser. Encore une fois, la formation consiste à calculer (une fonction de) la différence entre la sortie du modèle lorsqu'il reçoit chaque élément de données d'ensemble d'entraînement D comme entrée, et l'étiquette de D. Ce résultat est utilisé pour modifier le modèle afin de réduire la différence entre le résultat inféré et le résultat souhaité et conduit ainsi progressivement à des résultats attendus plus précis.

La phase d'entraînement alimentera le modèle ML avec des lots de vecteurs d'entrée et utilisera la fonction d'apprentissage sélectionnée pour adapter les paramètres internes du modèle (pondérations et biais) en fonction d'une mesure (p. ex. linéaire, quadratique, perte logarithmique) de la différence entre la sortie du modèle et les étiquettes. Souvent, l'ensemble de données disponibles est divisé à ce stade en un ensemble de formation, utilisé pour définir les paramètres du modèle, et un ensemble de tests, où les critères d'évaluation (p. ex. taux d'erreur) ne sont enregistrés que pour évaluer le rendement du modèle en dehors de l'ensemble de formation. Les schémas de validation croisée partissent de façon aléatoire plusieurs fois un ensemble de données dans une formation et une portion de test de tailles fixes (p. ex. 80 % et 20 % des données disponibles), puis répéter les phases de formation et de validation sur chaque partition.

L'IA Model Training en un mot : Appliquez l'algorithme d'entraînement sélectionné avec les paramètres appropriés pour modifier le modèle choisi en fonction des données d'entraînement. Valider la formation du modèle sur le jeu de tests selon une stratégie de validation croisée.

Réglage du modèle

Le réglage du modèle se chevauche généralement avec l'entraînement du modèle, puisque le réglage est généralement considéré dans le processus de formation. Nous avons choisi de séparer les deux étapes du cycle de vie de l'IA pour mettre en évidence les différences en termes de fonctionnement fonctionnel, bien qu'il soit très probable que dans la majorité des systèmes IA, ils feront partie du processus de formation.

Certains paramètres définissent des concepts de haut niveau concernant le modèle, tels que leur fonction ou modalité d'apprentissage, et ne peuvent pas être tirés des données d'entrée. Ces paramètres spéciaux, souvent appelés hyper-paramètres, doivent être configurés manuellement, bien qu'ils puissent, dans certaines circonstances, être réglés automatiquement en recherchant l'espace des paramètres du modèle. Cette recherche, appelée optimisation hyper-paramètre, est souvent effectuée en utilisant des techniques d'optimisation classiques comme la recherche en grille, mais la recherche aléatoire et l'optimisation bayésienne peuvent être utilisées. Il est important de noter que l'étape de réglage du modèle utilise un ensemble de données spécial (souvent appelé ensemble de validation), distinct des ensembles de formation et de test utilisés dans les étapes précédentes. Une phase d'évaluation peut également être envisagée pour estimer les limites des extrants et évaluer comment le modèle se comporterait dans des conditions extrêmes, par exemple en utilisant des ensembles de données inexactes ou dangereux. Il est important de noter que, selon le nombre d'hyperparamètres à ajuster, essayer toutes les combinaisons possibles peut tout simplement ne pas être faisable.

Réglage du modèle AI en un mot : Appliquez l'adaptation du modèle aux hyper-paramètres du modèle IA formé à l'aide d'un ensemble de données de validation, en fonction des conditions de déploiement.

Transférer l'apprentissage

Au cours de cette phase, l'organisation utilisateur se sert d'un modèle d'IA pré-formé et préréglé et l'utilise comme point de départ pour la formation continue afin d'atteindre une convergence plus rapide et plus efficace. C'est souvent le cas lorsque peu de données sont disponibles pour la formation. Il convient de noter que toutes les étapes décrites ci-dessus (réglage, test, etc.) s'appliquent également à l'apprentissage par transfert. De plus, étant donné que dans de nombreux cas l'apprentissage par transfert est appliqué, on peut considérer l'apprentissage par transfert comme faisant partie de la phase de formation modèle, étant donné que l'apprentissage par transfert sert généralement de point de départ de l'algorithme de formation. Afin de garantir une portée plus large, nous distinguons l'apprentissage par transfert dans une phase distincte du cycle de vie de l'IA présenté ici.

Transférer l'apprentissage en un mot : sourcez un modèle d'IA préformé dans le même domaine d'application et appliquez une formation supplémentaire, au besoin, afin d'améliorer sa précision en production.

Déploiement modèle

Un modèle d'apprentissage automatique apportera des connaissances à une organisation uniquement lorsque ses prédictions seront mises à la disposition des utilisateurs finaux. Le déploiement est le processus consistant à prendre un modèle formé et à le mettre à la disposition des utilisateurs.

Déploiement de modèle en un mot : générez une incarnation en production du modèle en tant que logiciel, microprogramme ou matériel. Déployez l'incarnation du modèle en périphérie ou dans le cloud, en connectant les flux de données en production.

Maintenance modèle

Après le déploiement, les modèles d'IA doivent être surveillés et maintenus en permanence pour gérer les changements de concept et les dérives potentielles qui peuvent survenir pendant leur fonctionnement. Un changement de concept se produit lorsque la signification d'une entrée dans le modèle (ou d'une étiquette de sortie) change, p. ex. en raison de règlements modifiés. Une dérive conceptuelle se produit lorsque le changement n'est pas drastique mais apparaît lentement. La dérive est souvent due à l'incrustation du capteur, c'est-à-dire à une évolution lente dans le temps de la résolution du capteur (la plus petite différence détectable entre deux valeurs) ou à l'intervalle de représentation global. Une stratégie populaire pour gérer la maintenance des modèles est le réapprentissage basé sur les fenêtres, qui s'appuie sur des points de données récents pour construire un modèle ML. Une autre technique utile pour la maintenance du modèle IA est le test rétro-test. Dans la plupart des cas, l'organisation utilisateur sait ce qui s'est passé à la suite de l'adoption du modèle IA et peut comparer la prédiction du modèle à la réalité. Ceci met en évidence les changements de concept : si un concept sous-jacent change, les entreprises constatent une diminution des performances. Une autre façon de détecter ces dérives conceptuelles peut consister à caractériser statistiquement l'ensemble de données en entrée utilisé pour la formation du modèle IA, de sorte qu'il est possible de comparer cet ensemble de données de formation aux données d'entrée actuelles en termes de propriétés statistiques. Des différences significatives entre les ensembles de données peuvent indiquer la présence de dérives conceptuelles potentielles qui peuvent nécessiter la mise en œuvre d'un processus de réapprentissage avant même que la sortie du système ne soit affectée de manière significative. De cette façon, les processus de recyclage et de réapprentissage, qui peuvent nécessiter du temps et des ressources, ne peuvent être réalisés que lorsque cela est nécessaire et non périodiquement, comme dans les stratégies de réapprentissage axées sur les fenêtres susmentionnées. La maintenance du modèle reflète également la nécessité de surveiller les objectifs commerciaux et les actifs qui pourraient évoluer au fil du temps et influencer par conséquent le modèle lui-même.

Maintenance du modèle en un mot : Surveillez les résultats d'inférence ML du modèle IA déployé, ainsi que les données d'entrée reçues par le modèle, afin de détecter d'éventuels changements ou dérives de concept. Recroutez le modèle en cas de besoin.

Compréhension commerciale

La construction d'un modèle IA est souvent coûteuse et prend toujours beaucoup de temps. Il présente plusieurs risques pour l'entreprise, notamment le fait de ne pas avoir d'impact significatif sur l'organisation utilisateur et de ne pas respecter les délais de production après l'achèvement. La compréhension commerciale est l'étape à laquelle les entreprises qui déploient des modèles d'IA obtiennent un aperçu de l'impact de l'IA sur leur entreprise et essaient de maximiser les chances de succès.

Compréhension commerciale en un mot : Évaluez la proposition de valeur du modèle IA déployé. Estimez (avant le déploiement) et vérifiez (après le déploiement) son impact sur l'activité.

Intelligence artificielle Défis de cybersécurité

Lire le rapport complet (PDF)

Rapport de l'ENISA — Défis de la cybersécurité

Lisez la communication originale.

*Partagé avec autorisation sous licence Creative Commons — Attribution 4.0 International (CC BY 4.0) — licence.

Lecture supplémentaire

L'envolée des coûts ? Considérant l'économie des violations de données

La chance des Irlandais ? La Commission irlandaise pour la protection des données publie son rapport annuel

Source : ComplexDiscovery

Attaque SPAC ? Cellebrite s'apprête à devenir une entreprise publique

According to Adam Clammer, Chief Executive Officer of TWC Tech Holdings,...

Cobra Legal Solutions reçoit un investissement de Blue Sage Capital

According to Eric Weiner, Partner at Blue Sage, “We are excited...

Fusions, acquisitions et investissements eDiscovery au premier trimestre 2021

From Relativity and Reveal to Compliance (System One) and Veristar, the...

Cyber Risques et récompenses ? Kroll acquiert Redscan

According to Redscan CEO, Mike Fenton, “Merging Redscan’s innovative culture and...

Une nouvelle ère dans l'e-Discovery ? Encadrer la croissance du marché à travers l'objectif de six époques

There are many excellent resources for considering chronological and historiographical approaches...

Un mashup de taille de marché électronique : 2020-2025 Présentation mondiale des logiciels et des services

While the Compound Annual Growth Rate (CAGR) for worldwide eDiscovery software...

Réinitialiser la ligne de base ? Ajustements de taille de marché eDiscovery pour 2020

An unanticipated pandemeconomic-driven retraction in eDiscovery spending during 2020 has resulted...

À la maison ou à l'extérieur ? Considérations relatives à la taille du marché et à la tarification des collections eDis

One of the key home (onsite) or away (remote) decisions that...

Cinq excellentes lectures sur eDiscovery pour mars 2021

From data breach economics and vulnerabilities to private-equity investments and vendor...

Cinq excellentes lectures sur eDiscovery pour février 2021

From litigation trends and legal tech investing to facial recognition and...

Cinq grandes lectures sur eDiscovery pour janvier 2021

From eDiscovery business confidence and operational metrics to merger and acquisition...

Cinq excellentes lectures sur eDiscovery pour décembre 2020

May the peace and joy of the holiday season be with...

Cobra Legal Solutions reçoit un investissement de Blue Sage Capital

According to Eric Weiner, Partner at Blue Sage, “We are excited...

Société Z ? Zapproved Versions de ZDiscovery Platform

According to the announcement, Monica Enand, Zapproved Founder and CEO, shared,...

La tête dans les nuages ? CloudNine publie les mises à jour

According to Tony Caputo, CEO of CloudNine, “CloudNine is 100% dedicated...

Tout pour un et un pour tous ? Epiq lance une expérience client numérique unifiée

According to the announcement, Epiq Access is available globally and provides...

Un optimisme de réchauffement ? Enquête sur la confiance des entreprises eDiscovery Printemps 2021

The eDiscovery Business Confidence Survey is a nonscientific quarterly survey designed...

La prise par temps froid ? Enquête sur les technologies et protocoles de codage prédictif — Résultats du printemps 2021

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual...

Sortir des bois ? Dix-huit observations sur la confiance des entreprises en eDiscovery à l'hiver 2021

In the winter of 2021, 85.0% of eDiscovery Business Confidence Survey...

Problèmes ayant une incidence sur les performances de l'entreprise eDiscovery : Aperçu de l'hiver 2021

In the winter of 2021, 43.3% of respondents viewed budgetary constraints...