Sun. Sep 25th, 2022
    en flag
    nl flag
    et flag
    fi flag
    fr flag
    de flag
    he flag
    ja flag
    lv flag
    pl flag
    pt flag
    ru flag
    es flag

    Anmerkung des Herausgebers: Dies ist die siebte halbjährliche Umfrage zur Predictive Coding Technologies and Protocols, die von ComplexDiscovery durchgeführt wurde. Die ersten sechs Umfragen lieferten detaillierte Rückmeldungen von rund 384* Rechts-, Geschäfts- und Technologieexperten zum Einsatz spezifischer Technologien für maschinelles Lernen bei der vorausschauenden Codierung und hoben auch die Verwendung dieser Technologien für maschinelles Lernen im Rahmen einer beispieltechnologieunterstützten Überprüfung hervor Protokolle. Diese Iteration der Umfrage konzentriert sich weiterhin auf prädiktive Codierungstechnologien, Protokolle, Workflows und Anwendungen im gesamten eDiscovery-Ökosystem. Ursprünglich aus vier Kernfragen bestand, enthielt die Umfrage ab Herbst 2020 eine neue Frage zur Prävalenz der Verwendung der vorausschauenden Codierung im Rahmen von eDiscovery-Workflows.

    Prädiktive Kodierungstechnologien und -protokolle (Umfrage)

    Eine Fünf-Frage-Umfrage

    Im Folgenden finden Sie einen Link zu einer einfachen Umfrage mit fünf Fragen, die die aktuelle Anwendung von Technologien, Protokollen, Workflows und Anwendungen der vorausschauenden Codierung im eDiscovery-Ökosystem erfassen soll.

    Rechtsexperten, Informationstechnologie und Geschäftsleute, die an organisatorischen Aktivitäten beteiligt sind, bei denen vorausschauende Codierung verwendet werden, werden aufgefordert, die kurze Umfrage mit fünf Fragen abzuschließen.

    Die Ergebnisse der Umfrage (ohne Kontaktinformationen des Responders) werden zusammengefasst und im ComplexDiscovery-Blog zur Verwendung durch die eDiscovery-Community veröffentlicht.

    Predictive Coding Technologien und Protokolle (Survey Backgrounder)

    Wie im Grossman-Cormack Glossar of Technology Assisted Review (1) definiert, ist Predictive Coding ein branchenspezifischer Begriff, der allgemein verwendet wird, um einen technologieunterstützten Überprüfungsprozess zu beschreiben, bei dem ein Algorithmus für maschinelles Lernen verwendet wird, um relevante von nicht relevanten Dokumenten basierend auf einem Thema zu unterscheiden Materie Experte Codierung eines Schulungssatzes von Dokumenten. Diese Definition der vorausschauenden Codierung bietet eine Basisbeschreibung, die eine bestimmte Funktion identifiziert, die eine allgemeine Gruppe allgemein anerkannter Algorithmen für maschinelles Lernen in einer technologieunterstützten Überprüfung (TAR) verwenden kann.

    Angesichts des wachsenden Bewusstseins und der Verwendung von prädiktiver Codierung im Rechtsbereich heute scheint es, dass es für Fachleute für elektronische Entdeckung immer wichtiger wird, ein allgemeines Verständnis der Technologien zu haben, die in elektronischen Entdeckungsplattformen implementiert werden können, um die vorausschauende Codierung zu erleichtern von elektronisch gespeicherten Informationen. Dieses allgemeine Verständnis ist unerlässlich, da jeder potenzielle algorithmische Ansatz vor- und Nachteile der Effizienz und Nachteile aufweist, die sich auf die Effizienz und Wirksamkeit der vorausschauenden Codierung auswirken können.

    Um bei der Entwicklung dieses allgemeinen Verständnisses für prädiktive Codierungstechnologien zu helfen und Anbietern elektronischer Ermittlungen die Möglichkeit zu bieten, die Technologien und Protokolle, die sie in und mit ihren Plattformen verwenden, um eine vorausschauende Codierung durchzuführen, teilen Sie die folgenden Arbeitslisten der vorausschauenden Codierung Technologien und TAR-Protokolle werden für Ihre Verwendung bereitgestellt. Arbeitslisten zu Workflows und Verwendungen für vorausschauende Codierung sind ebenfalls für Sie enthalten, da sie definieren, wie die vorausschauenden Codierungstechnologien und TAR-Protokolle implementiert und verwendet werden.

    Eine Arbeitsliste von Predictive Coding Technologies (1,2,3,4)

    Zusammengestellt von Experten für elektronische Entdeckung, die auf professionellen Publikationen und persönlichen Gesprächen basieren, finden Sie im Folgenden eine Nicht-All-Inclusive-Arbeitsliste identifizierter Technologien für maschinelles Lernen, die angewendet wurden oder das Potenzial haben, auf die Disziplin von eDiscovery angewendet zu werden, um sie zu erleichtern vorausschauende Kodierung. Diese Arbeitsliste soll einen Bezugspunkt für identifizierte vorausschauende Codierungstechnologien bieten und kann im Laufe der Zeit Ergänzungen, Anpassungen und Änderungen enthalten, die auf dem Feedback von Experten und Organisationen basieren, die diese Mainstream-Technologien in ihren spezifischen eDiscovery-Plattformen anwenden und implementieren.

    In alphabetischer Reihenfolge aufgeführt

    Active Learning: Ein in der Regel iterativer Prozess, bei dem ein Algorithmus verwendet wird, um Dokumente auszuwählen, die auf der Grundlage einer Strategie für das Training überprüft werden sollen, um dem Klassifikationsalgorithmus zu helfen, effizient zu lernen.

    Entscheidungsbaum: Eine schrittweise Methode zur Unterscheidung zwischen relevanten und nicht relevanten Dokumenten, je nachdem, welche Kombination von Wörtern (oder anderen Merkmalen) sie enthalten. Eine Entscheidungsstruktur zur Identifizierung von Dokumenten, die sich auf Finanzderivate beziehen, könnte zunächst bestimmen, ob ein Dokument das Wort „Austausch“ enthielt oder nicht. Wenn dies der Fall war, könnte der Entscheidungsbaum dann feststellen, ob das Dokument „Kredit“ enthielt oder nicht. Ein Entscheidungsbaum kann entweder durch Knowledge Engineering oder Machine Learning erstellt werden.

    K-Nearest Neighbor Classifier (k-NN): Ein Klassifikationsalgorithmus, der die k-Beispieldokumente analysiert, die dem zu klassifizierenden Dokument am ähnlichsten (am nächsten) sind, um die beste Klassifizierung für das Dokument zu ermitteln. Wenn k zu klein ist (z. B. k=1), kann es äußerst schwierig sein, einen hohen Rückruf zu erzielen.

    Latente Semantische Analyse (LSA): Eine mathematische Darstellung von Dokumenten, die stark korrelierte Wörter (dh Wörter, die tendenziell in denselben Dokumenten vorkommen) als gleichwertig oder austauschbar behandeln. Diese Äquivalenz oder Austauschbarkeit kann es Algorithmen ermöglichen, Dokumente als konzeptionell ähnlich zu identifizieren, selbst wenn sie nicht dieselben Wörter verwenden (z. B. weil Synonyme stark korreliert sein können), obwohl sie auch einige potenziell nützliche Informationen verwirft und zu unerwünschten Ergebnissen führen kann, die durch unechte Korrelationen.

    Logistische Regression: Ein hochmoderner überwachter Lernalgorithmus für maschinelles Lernen, der die Wahrscheinlichkeit schätzt, dass ein Dokument relevant ist, basierend auf den darin enthaltenen Funktionen. Im Gegensatz zum Naïve Bayes, Algorithmus, identifiziert Logistic Regression Merkmale, die zwischen relevanten und nicht relevanten Dokumenten unterscheiden.

    Naïve Bayesian Classifier: Ein System, das die Wahrscheinlichkeit untersucht, dass jedes Wort in einem neuen Dokument aus der Wortverteilung stammt, die aus einem geschulten, responsiven Dokument oder geschulten nicht reagierenden Dokumenten abgeleitet wurde. Das System ist naiv in dem Sinne, dass es davon ausgeht, dass alle Wörter voneinander unabhängig sind.

    Neuronales Netzwerk: Ein künstliches neuronales Netzwerk (ANN) ist ein Rechenmodell. Es basiert auf der Struktur und Funktionen biologischer neuronaler Netze. Es funktioniert wie die Art und Weise, wie das menschliche Gehirn Informationen verarbeitet. Es enthält eine große Anzahl von verbundenen Verarbeitungseinheiten, die zusammenarbeiten, um Informationen zu verarbeiten.

    Probabilistische latente Semantische Analyse (PLSA): Dies ist im Geiste ähnlich wie LSA, verwendet jedoch ein probabilistisches Modell, um Ergebnisse zu erzielen, von denen erwartet wird, dass sie besser sein werden.

    Random Forests: Eine Ensemble-Lernmethode für Klassifizierung, Regression und andere Aufgaben, die durch das Erstellen einer Vielzahl von Entscheidungsbäumen zur Trainingszeit und Ausgabe der Klasse funktionieren, die der Modus der Klassen (Klassifizierung) oder der mittleren Vorhersage (Regression) der einzelnen Bäume ist. Zufällige Entscheidungen sind richtig für die Gewohnheit der EntscheidungsbäUME, sich an ihre Trainingsgruppe zu überpassen.

    Relevanz-Feedback: Ein aktiver Lernprozess, bei dem Dokumente mit der höchsten Relevanzwahrscheinlichkeit von einem Menschen codiert und zum Trainingsset hinzugefügt werden.

    Support Vector Machine: Ein mathematischer Ansatz, der versucht, eine Zeile zu finden, die responsive von nicht reagierenden Dokumenten trennt, so dass sich idealerweise alle responsiven Dokumente auf einer Seite der Zeile befinden und sich alle nicht reagierenden Dokumente auf der anderen Seite befinden.

    Allgemeine TAR-Protokolle (5,6,7,8,9,10)

    Darüber hinaus werden diese Technologien im Allgemeinen als Teil eines TAR-Protokolls eingesetzt, das bestimmt, wie die Technologien eingesetzt werden. Beispiele für TAR-Protokolle sind:

    In alphabetischer Reihenfolge aufgeführt

    Continuous Active Learning® (CAL®): In CAL®, der von Maura R. Grossman und Gordon V. Cormack entwickelten, verwendeten und befürworteten TAR-Methode wählt der Lernende nach dem ersten Schulungssatz wiederholt die nächstwahrscheinlich relevanten Dokumente (die noch nicht berücksichtigt wurden) zur Überprüfung, Programmierung und Schulung aus. und tut dies so lange, bis es keine relevanten Dokumente mehr finden kann. Es gibt im Allgemeinen keine zweite Überprüfung, da alle vom Lernenden als relevant erachteten Dokumente bereits identifiziert und manuell überprüft wurden, bis der Lernende aufhört zu lernen.

    Hybrid Multimodale Methode: Ein vom E-Discovery-Team (Ralph Losey) entwickelter Ansatz, der alle Arten von Suchmethoden umfasst, wobei die primäre Abhängigkeit von der vorausschauenden Codierung und der Verwendung hochrangiger Dokumente für kontinuierliches aktives Training beruht.

    Skalierbares Continuous Active Learning (S-CAL): Der wesentliche Unterschied zwischen S-CAL und CAL® besteht darin, dass für S-CAL nur eine endliche Stichprobe von Dokumenten aus jeder aufeinanderfolgenden Charge für die Kennzeichnung ausgewählt wird und der Prozess fortgesetzt wird, bis die Sammlung - oder eine große Zufallsstichprobe der Sammlung - erschöpft ist. Zusammen bilden die endlichen Proben eine geschichtete Stichprobe der Dokumentenpopulation, aus der eine statistische Schätzung von ρ abgeleitet werden kann.

    Einfaches aktives Lernen (SAL): In SAL-Methoden wählt der Lernende nach dem ersten Schulungssatz die Dokumente aus, die vom Lehrer überprüft und codiert werden sollen, und verwendet als Trainingsbeispiele und wählt weiterhin Beispiele aus, bis es ausreichend geschult ist. In der Regel sind die Dokumente, die der Lernende wählt, diejenigen, über die sich der Lernende am wenigsten sicher ist und von denen er daher am meisten lernt. Einmal ausreichend geschult, wird der Lernende verwendet, um jedes Dokument in der Sammlung zu kennzeichnen. Wie bei SPL werden die als relevant gekennzeichneten Dokumente in der Regel manuell überprüft.

    Einfaches passives Lernen (SPL): In einfachen Methoden des passiven Lernens („SPL“) wählt der Lehrer (d. h. menschlicher Bediener) die Dokumente aus, die als Trainingsbeispiele verwendet werden sollen. Der Lernende wird anhand dieser Beispiele geschult und wird nach ausreichender Ausbildung verwendet, um jedes Dokument in der Sammlung als relevant oder nicht- relevant. Im Allgemeinen werden die vom Lernenden als relevant gekennzeichneten Dokumente manuell überprüft. Diese manuelle Überprüfung macht einen kleinen Bruchteil der Sammlung und damit einen kleinen Bruchteil der Zeit und der Kosten einer umfassenden manuellen Überprüfung aus.

    TAR-Workflows (11)

    TAR-Workflows stellen die praktische Anwendung von vorausschauenden Codierungstechnologien und -protokollen dar, um Ansätze zur Erledigung vorausschauender Codierungsaufgaben zu definieren. Drei Beispiele für TAR-Workflows sind:

    TAR 1.0 beinhaltet eine Trainingsphase, gefolgt von einer Überprüfungsphase mit einem Steuersatz, der verwendet wird, um den optimalen Punkt zu bestimmen, an dem Sie von Training zu Überprüfung wechseln sollten. Das System lernt nicht mehr, sobald die Trainingsphase abgeschlossen ist. Der Steuersatz besteht aus einem zufälligen Satz von Dokumenten, die überprüft und als relevant oder nicht relevant gekennzeichnet wurden. Die Steuersatzdokumente werden nicht zum Trainieren des Systems verwendet. Sie werden verwendet, um die Vorhersagen des Systems zu bewerten, sodass das Training beendet werden kann, wenn die Vorteile zusätzlicher Schulungen die Kosten für zusätzliche Schulungen nicht mehr überwiegen. Das Training kann mit zufällig ausgewählten Dokumenten erfolgen, bekannt als Simple Passive Learning (SPL), oder es kann Dokumente beinhalten, die vom System ausgewählt wurden, um die Lerneffizienz zu optimieren, bekannt als Simple Active Learning (SAL).

    TAR 2.0 verwendet einen Ansatz namens Continuous Active Learning® (CAL®), was bedeutet, dass es keine Trennung zwischen Training und Review gibt - das System lernt durchgehend weiter. Während viele Ansätze verwendet werden können, um Dokumente zur Überprüfung auszuwählen, sind eine wichtige Komponente von CAL® viele Iterationen, um vorherzusagen, welche Dokumente am ehesten relevant sind, zu überprüfen und die Prognosen zu aktualisieren. Im Gegensatz zu TAR 1.0 ist TAR 2.0 tendenziell sehr effizient, auch wenn die Prävalenz gering ist. Da es keine Trennung zwischen Training und Review gibt, benötigt TAR 2.0 keinen Steuersatz. Das Generieren eines Steuersatzes kann die Überprüfung einer großen Anzahl von nicht relevanten Dokumenten (insbesondere wenn die Prävalenz niedrig ist) beinhalten, daher ist es wünschenswert, Steuersätze zu vermeiden.

    TAR 3.0 erfordert einen qualitativ hochwertigen konzeptionellen Clustering-Algorithmus, der eng fokussierte Cluster fester Größe im Konzeptraum bildet. Es wendet die TAR 2.0-Methodik nur auf die Clusterzentren an, wodurch sichergestellt wird, dass eine Vielzahl potenziell relevanter Dokumente überprüft werden. Sobald keine relevanten Clusterzentren mehr gefunden werden können, werden die überprüften Clusterzentren als Schulungsdokumente verwendet, um Vorhersagen für die gesamte Dokumentenpopulation zu treffen. Es ist kein Steuerungsset erforderlich — das System ist gut geschult, wenn keine zusätzlichen relevanten Clusterzentren gefunden werden können. Die Analyse der überprüften Clusterzentren liefert eine Schätzung der Prävalenz und der Anzahl der nicht relevanten Dokumente, die erstellt würden, wenn Dokumente auf der Grundlage der Vorhersagen ohne menschliche Überprüfung erstellt würden. Der Benutzer kann beschließen, Dokumente (die nicht als potenziell privilegiert identifiziert wurden) ohne Überprüfung zu erstellen, ähnlich wie SAL von TAR 1.0 (jedoch ohne Steuersatz), oder er kann sich entscheiden, Dokumente zu überprüfen, die zu viel Risiko haben, nicht relevant zu sein (die als zusätzliche Schulung für das System verwendet werden können, d. h. CAL®). Der entscheidende Punkt ist, dass der Benutzer über die Informationen verfügt, die er benötigt, um nach Abschluss der Überprüfung der wahrscheinlich relevanten Cluster-Center eine Entscheidung darüber zu treffen, wie er vorgehen soll, und nichts, das vor diesem Punkt getan wurde, wird durch die Entscheidung ungültig gemacht (im Vergleich zu TAR 1.0, Überprüfung eines Steuersatzes, Finden dass die Vorhersagen nicht gut genug sind, um Dokumente ohne Überprüfung zu erstellen und dann zu TAR 2.0 zu wechseln, was den Steuerungssatz praktisch nutzlos macht).

    TAR Verwendet (12)

    TAR-Technologien, -Protokolle und Workflows können effektiv verwendet werden, um eDiscovery-Profis bei der Durchführung vieler Datenerkennungs- und Rechtserkennungsaufgaben zu unterstützen. Neun allgemein betrachtete Beispiele für die Verwendung von TAR sind:

    Identifizierung relevanter Dokumente

    Frühe Fallbewertung/Untersuchung

    Priorisierung für die Überprüfung

    Kategorisierung (Nach Problemen, zur Vertraulichkeit oder zum Datenschutz)

    Überprüfung von Privilegien

    Qualitätskontrolle und Qualitätssicherung

    Überprüfung von Incoming Productions

    Disposition/Testvorbereitung

    Information Governance und Datendisposition

    Informationen zur Umfrage (13.14,15.16,17,18, 19, 20, 21)

    Referenzen

    (1) Grossman, M. und Cormack, G. (2013). Das Grossman-Cormack Glossar für technologieunterstützte Überprüfung. [ebook] Überprüfung des Bundesgerichts. Erhältlich unter: http://www.fclr.org/fclr/articles/html/2010/grossman.pdf [Abgerufen am 31. Aug. 2018].

    (2) Dimm, B. (2018). Expertise im Bereich Predictive Coding. [E-Mail].

    (3) Roitblat, H. (2013). Einführung in die Predictive Coding. [ebook] Orcatec. Erhältlich am: 31. Aug. 2018].

    (4) Tredennick, J. und Pickens, J. (2017). Deep Learning in E-Discovery: Den Hype überwinden. [online] CatalystSecure.com. Erhältlich am: 31. Aug. 2018].

    (5) Grossman, M. und Cormack, G. (2017). Technologieunterstützte Überprüfung im Bereich der elektronischen Entdeckung. [ebook] Erhältlich unter: 31. Aug. 2018].

    (6) Grossman, M. und Cormack, G. (2016). Kontinuierliches aktives Lernen für TAR. [ebook] Praktisches Recht. Erhältlich am: 31. Aug. 2018].

    (7) Grossman, M. und Cormack, G. (2016). Skalierbarkeit des kontinuierlichen aktiven Lernens für eine zuverlässige High-Recall-Textklassifizierung. [ebook] Erhältlich unter: 3. Sep. 2018].

    (8) Losey, R., Sullivan, J. und Reichenberger, T. (2015). e-Discovery Team auf der TREC 2015 Total Recall Track. [ebook] Erhältlich unter: 1. Sep. 2018].

    (9) „KONTINUIERLICHES AKTIVES LERNEN Warenzeichen von Maura Grossman und Gordon V. Cormack - Registrierungsnummer 5876987 - Seriennummer 86634255። Justia Trademarks“. Trademarks.Justia.com, 2020, 12. Februar 2020].

    (10) „CAL-Warenzeichen von Maura Grossman und Gordon V. Cormack - Registrierungsnummer 5876988 - Seriennummer 86634265። Justia Trademarks“. Trademarks.Justia.com, 2020, 12. Februar 2020].

    (11) Dmm, B. (2016), TAR 3.0 Leistung. [online] Clustify Blog — eDiscovery, Document Clustering, Predictive Coding, Informationsabruf und Softwareentwicklung. Erhältlich am: 18. Feb. 2019].

    (12) Elektronisches Discovery-Referenzmodell (EDRM) (2019). Richtlinien zur technologieunterstützten Überprüfung (TAR) [online] Erhältlich unter: 18. Feb. 2019].

    (13) Dimm, B. (2018). TAR, Verhältnismäßigkeit und schlechte Algorithmen (1-NN). [online] Clustify Blog — eDiscovery, Document Clustering, Predictive Coding, Informationsabruf und Softwareentwicklung. Erhältlich am: 31. Aug. 2018].

    (14) Robinson, R. (2013). Laufende Ergebnisse: Umfrage zur Implementierung von Anbietern mit einer Frage zur vorausschauenden Kodierung. [online] ComplexDiscovery: eDiscovery-Informationen. Erhältlich am: 31. Aug. 2018].

    (15) Robinson, R. (2018). Eine laufende Liste: Top 100 eDiscovery-Anbieter. [online] ComplexDiscovery: eDiscovery-Informationen. Erhältlich am: 31. Aug. 2018].

    (16) Robinson, R. (2018) Relativ gesprochen: Umfrageergebnisse für vorausschauende Kodierungstechnologien und -protokolle [online] ComplexDiscovery: eDiscovery Information. Erhältlich am: 18. Feb. 2019].

    (17) Robinson, R. (2019) Aktiv lernen? Umfrageergebnisse für Predictive Coding Technologies und -Protokolle [online] ComplexDiscovery: eDiscovery Information. Erhältlich am: 22. Aug. 2019]

    (18) Robinson, R. (2019) Von Plattformen zu Workflows: Umfrage zu Predictive Coding Technologies and Protocols — Ergebnisse im Herbst 2019 [online] ComplexDiscovery: eDiscovery Information. Erhältlich am: 12. Feb. 2020].

    (19) Robinson, R. (2020) Ist alles relativ? Umfrage zu vorausschauenden Kodierungstechnologien und -protokollen - Frühlingsergebnisse [online] ComplexDiscovery: eDiscovery Information. Erhältlich unter: [Abgerufen am 7. August 2020].

    (20) Robinson, R. (2020) Ein breiteres Netz gießen? Umfrage zu vorausschauenden Kodierungstechnologien und -protokollen - Herbst 2020 [online] ComplexDiscovery: eDiscovery Information. Erhältlich unter: [Abgerufen am 5. Februar 2021].

    (21) Robinson, R. (2021) Kaltwetter Catch? Umfrage zu vorausschauenden Kodierungstechnologien und -protokollen - Frühjahr 2021 [online] ComplexDiscovery: eDiscovery Information. Erhältlich unter: [Abgerufen am 8. August 2021].

    Klicken Sie hier, um bestimmte Ergänzungen, Korrekturen und Updates bereitzustellen.

    * Befragte Umfrage zur vorausschauenden Kodierung: Sechs Umfragen

    Befragte Umfrage mit vorausschauender Kodierung — Sechs Umfragen

    Quelle: ComplexDiscovery

    Nach vorne gelehnt? Der Strategieplan CISA 2023-2025

    The purpose of the CISA Strategic Plan is to communicate the...

    Kontinuierliche Risikoverbesserung Cyber-Zusammenfassung für das dritte Quartal von Cowbell Cyber

    According to Manu Singh, director of risk engineering at Cowbell, "Every...

    Eine umfassende Cyber-Discovery-Ressource? Das DoD Cybersecurity Policy Chart von CSIAC

    The Cyber Security and Information Systems Information Analysis Center (CSIAC) is...

    Eine sich schnell entwickelnde Cyber-Versicherung? Cyber-Zusammenfassung für das zweite Quartal von Cowbell Cyber

    According to Isabelle Dumont, SVP of Marketing and Technology Partners at...

    Aufschlussreiche Reaktion? Nuix reagiert auf ASX-Informationsanfrage

    The following investor news update from Nuix shares a written response...

    Enthüllende Berichte? Nuix Notes Presse-Spekulationen

    According to a September 9, 2022 market release from Nuix, the...

    HayStackID® erwirbt Business Intelligence Associates

    According to HaystackID CEO Hal Brooks, “BIA is a leader in...

    Ein großes Software- und Cloud-Unternehmen? OpenText erwirbt Micro Focus

    According to OpenText CEO & CTO Mark J. Barrenechea, “We are...

    Unterwegs? 2022 eDiscovery-Marktkinetik: Fünf Interessenbereiche

    Recently ComplexDiscovery was provided an opportunity to share with the eDiscovery...

    Dem Prozess vertrauen? 2021 eDiscovery-Verarbeitungsaufgaben-, Ausgaben- und Kostendaten

    Based on the complexity of cybersecurity, information governance, and legal discovery,...

    Das Jahr im Rückblick? 2021 eDiscovery Review Aufgaben-, Ausgaben- und Kostendatenpunkte

    Based on the complexity of cybersecurity, information governance, and legal discovery,...

    Ein Blick auf die eDiscovery-Erfassung für 2021: Aufgaben-, Ausgaben- und Kostendatenpunkte

    Based on the complexity of cybersecurity, information governance, and legal discovery,...

    Fünf großartige Lesungen zu Cyber, Data und Legal Discovery für September 2022

    From privacy legislation and special masters to acquisitions and investigations, the...

    Fünf großartige Lesungen zu Cyber-, Daten- und rechtlichen Erkenntnissen für August 2022

    From AI and Big Data challenges to intriguing financial and investment...

    Fünf großartige Lesungen zu Cyber, Daten und Legal Discovery für Juli 2022

    From lurking business undercurrents to captivating deepfake developments, the July 2022...

    Fünf großartige Lesungen zu Cyber, Daten und Legal Discovery für Juni 2022

    From eDiscovery ecosystem players and pricing to data breach investigations and...

    Kühlere Temperaturen? Ergebnisse der Umfrage zum Vertrauen der eDiscovery-Geschäftssicherheit

    Since January 2016, 2,874 individual responses to twenty-eight quarterly eDiscovery Business...

    Flexion oder Ablenkung? Ein Gesamtüberblick über acht halbjährliche eDiscovery-Preiserhebungen

    Initiated in the winter of 2019 and conducted eight times with...

    Wechselnde Ströme? Achtzehn Beobachtungen zum eDiscovery-Geschäftsvertrauen im Sommer 2022

    In the summer of 2022, 54.8% of survey respondents felt that...

    Herausfordernde Varianten? Probleme, die sich auf die Geschäftsleistung von eDiscovery auswirken: Ein Überblick über

    In the summer of 2022, 28.8% of respondents viewed increasing types...