Kaltes Wetter Catch? Umfrage zu Predictive Coding Technologien und Protokollen — Ergebnisse des Frühjahrs 2021

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual survey designed to help provide a general understanding of the current application of predictive coding technologies, protocols, workflows, and uses by data discovery and legal discovery professionals.

en flag
nl flag
et flag
fi flag
fr flag
de flag
pt flag
ru flag
es flag

Anmerkung der Redaktion: Dies sind die Ergebnisse der sechsten halbjährlichen Predictive Coding Technologies and Protocols Survey, die von ComplexDiscovery durchgeführt wurde. Bis heute haben die sechs Umfragen detaillierte Rückmeldungen von 384 Rechts-, Geschäfts- und Technologieexperten zum Einsatz spezifischer Technologien für maschinelles Lernen bei der prädiktiven Codierung gegeben. Die Umfragen haben auch einen Einblick in die Verwendung dieser Technologien für maschinelles Lernen als Teil von Beispielprotokollen für technologieunterstützte Überprüfungen gegeben.

Diese Iteration der Umfrage ergab 65 Responder und konzentrierte sich weiterhin auf prädiktive Codierungstechnologien, Protokolle, Workflows und Anwendungen im gesamten eDiscovery-Ökosystem.

Die Predictive Coding Technologien und Protokolle Umfrage im Frühjahr 2021

Die Predictive Coding Technologies and Protocols Survey ist eine nicht-wissenschaftliche Umfrage, die dazu beitragen soll, ein allgemeines Verständnis der Verwendung von Predictive Coding-Technologien, Protokollen und Workflows von Experten für Datenentdeckung und rechtliche Erkennung innerhalb des eDiscovery-Ökosystems zu vermitteln. Die Umfrage im Frühjahr 2021 war vom 7. Februar 2021 bis zum 18. Februar 2021 mit Personen geöffnet, die direkt von ComplexDiscovery eingeladen wurden.

Die Umfrage wurde entwickelt, um ein allgemeines Verständnis der prädiktiven Codierungstechnologien und -protokolle zu vermitteln und hatte zwei primäre Bildungsziele:

Bereitstellung einer konsolidierten Auflistung möglicher prädiktiver Codierungstechnologie-, Protokoll- und Workflow- Obwohl es nicht allumfassend oder umfassend war, wurde die Notierung mit ausgewählten Experten für prädiktive Codierung der Branche auf Vollständigkeit und Genauigkeit überprüft, so dass sie für den Einsatz in Bildungsaktivitäten rentabel zu sein scheint.

Experten von eDiscovery-Ökosystemen nach ihren Präferenzen und Nutzungsmustern in Bezug auf vorausschauende Codierungsplattformen, Technologien, Protokolle, Workflows und Anwendungsbereiche zu fragen.

Die Umfrage bot Respondern die Möglichkeit, Hintergrundinformationen zur vorausschauenden Codierung, einschließlich ihrer primären prädiktiven Codierungsplattform, bereitzustellen und fünf spezifische Fragen an Responder zu stellen. Diese Fragen sind:

Wie oft verwenden Sie Predictive Coding als Teil Ihres eDiscovery-Workflows? (Prävalenz)

Welche prädiktive Codierungstechnologien werden von Ihrer eDiscovery-Plattform genutzt? (Technologien)

Welche technologieunterstützten Überprüfungsprotokolle werden bei der Bereitstellung von Predictive Coding verwendet? (Protokolle)

Welcher primäre Workflow für technologieunterstützte Überprüfungen wird bei der Bereitstellung von Predictive Coding verwendet? (Arbeitsablauf)

In welchen Bereichen verwenden Sie technologiegestützte Überprüfungstechnologien, Protokolle und Workflows? (Anwendungsbereiche)

Am 18. Februar 2020 geschlossen, hatte die Frühjahrsumfrage 65 Responder.

Wichtigste Ergebnisse und Beobachtungen

Übersicht über Predictive Coding-Technologie und Protocol Survey, Responder (Abbildung 1)

50,77% der Responder stammten von Software- oder Dienstleisterorganisationen.

27,69% der Responder kamen von Anwaltskanzleien.

Die verbleibenden 21,54% der Responder waren entweder Teil eines Beratungsunternehmens (12,,31%), der Regierung (4,62), eines Unternehmens (1,54%) oder einer anderen Art von Unternehmen (3,08%).

Primäre prädiktive Coding-Plattform (Schaubild

Es gab 24 verschiedene Plattformen, die von Respondern als primäre prädiktive Codierungsplattform gemeldet wurden.

Relativity wurde von 36,92% der Umfrage-Responder als primäre prädiktive Codierungsplattform gemeldet.

Die beiden wichtigsten Plattformen wurden von 53,85% der Umfrage-Responder als primäre prädiktive Codierungsplattform gemeldet.

1,54% der Responder gaben an, keine primäre Plattform für vorausschauendes Coding zu haben.

Prävalenz der Verwendung von Predictive Coding in eDiscovery (Schaubild 3)

Mehr als ein Drittel der Umfrage-Responder (38,46%) gaben an, mehr als 50% der Fälle Predictive Coding in ihrem eDiscovery-Workflow zu verwenden.

80% der Responder gaben mindestens 5% der Fälle an, Predictive Coding in ihrem eDiscovery-Workflow zu verwenden.

Nur 20% der Responder gaben an, in ihrem eDiscovery-Workflow weniger als 5% der Fälle Predictive Coding zu verwenden.

Prädiktive Codiertechnologie Beschäftigung (Schaubild 4)

Active Learning wurde als die am häufigsten verwendete Predictive-Codierungstechnologie gemeldet, wobei 93,21% der Responder sie bei ihren prädiktiven Codierungsbemühungen verwendeten.

44,62% der Responder gaben an, nur eine prädiktive Codierungstechnologie bei ihren Bemühungen zur vorausschauenden Codierung zu verwenden.

53,85% der Responder gaben an, bei ihren Bemühungen um vorausschauende Codierung mehr als eine prädiktive Codierungstechnologie zu verwenden.

1,54% der Responder gaben keine spezifische prädiktive Codierungstechnologie an.

Technologie-unterstützte Überprüfungsprotokolle Beschäftigung (Schaubild 5)

Alle aufgelisteten technologieunterstützten Protokolle für prädiktive Codierung wurden von mindestens einem Umfrage-Responder gemeldet.

Continuous Active Learning® (CAL®) wurde als das am häufigsten verwendete prädiktive Codierungsprotokoll berichtet, wobei 84,62% der Responder es bei ihren vorausschauenden Codierungsbemühungen verwenden.

55,38% der Responder gaben an, bei ihren Bemühungen zur vorausschauenden Codierung nur ein prädiktives Codierungsprotokoll zu verwenden.

43,08% der Responder gaben an, mehr als ein prädiktives Codierungsprotokoll bei ihren Bemühungen zur vorausschauenden Codierung zu verwenden.

1,54% der Responder gaben an, kein prädiktives Codierungsprotokoll zu verwenden.

Technologie-unterstützte Überprüfung Workflow Beschäftigung (Schaubild 6)

72,31% der Responder gaben an, Technology-Assisted Review (TAR) 2.0 als primären Workflow bei der Bereitstellung von prädiktiver Codierung zu verwenden.

6,16% der Responder gaben an, dass TAR 1,0 und 13,85% der Responder verwendet wurden, gaben an, TAR 3.0 als primären Workflow bei der Bereitstellung von prädiktiver Codierung zu verwenden.

7,69% der Responder gaben nicht an, dass TAR 1.0, TAR 2.0 oder TAR 3.0 als primären Workflow bei der Bereitstellung von prädiktiver Codierung verwendet wurde.

Verwendung von technologieunterstützten Überprüfungen (Schaubild 7)

87,69% der Responder gaben an, technologieunterstützte Überprüfungen in mehr als einem Bereich der Daten und der rechtlichen Ermittlung zu verwenden.

92,31% der Responder gaben an, technologiegestützte Überprüfungen zur Identifizierung relevanter Dokumente zu verwenden.

13,85% der Responder gaben an, technologiegestützte Überprüfungen für Information Governance und Datendisposition zu verwenden.

Umfrage-Diag

(Diagramme können zur detaillierten Ansicht erweitert werden.)

Tabelle 1: Überblick über Umfrage-Responder (Hintergrund)

1 — Übersicht über Predictive Coding Technologien und Protokolle — Frühjahr 2021

Diagramm 2: Name der primären prädiktiven Codierungsplattform (Hintergrund)

2 — Primäre Predictive Coding Plattform — Frühjahr 2021

Chart 3: Wie oft verwenden Sie Predictive Coding als Teil Ihres eDiscovery-Workflows? (Frage #1)

3 — Predictive Coding Verwendung — Frühjahr 2021

Tabelle 4: Welche prädiktive Codierungstechnologien werden von Ihrer eDiscovery-Plattform genutzt? (Frage #2)

4- Nutzung der prädiktiven Codiertechnologie — Frühjahr 2021

Tabelle 5: Welche technologieunterstützten Überprüfungsprotokolle werden bei der Bereitstellung von prädiktiver Codierung verwendet? (Frage #3)

5 — Verwendung des technologiegestützten Überprüfungsprotokolls — Frühjahr 2021

Tabelle 6: Was ist der primäre technologiegestützte Überprüfungs-Workflow, der bei der Bereitstellung von prädiktiver Codierung verwendet wird? (Frage #4)

6 — Nutzung des Workflows zur technologiegestützten Überprüfung — Frühjahr 2021

Tabelle 7: In welchen Bereichen werden technologieunterstützte Überprüfungstechnologien, Protokolle und Workflows eingesetzt? (Frage #5)

7 — Verwendung von technologieunterstützten Reviews — Frühjahr 2021

Predictive Coding Technologien und Protokolle (Survey Backgrounder)

Wie im Grossman-Cormack-Glossar von Technology-Assisted Review (1) definiert, ist Predictive Coding ein branchenspezifischer Begriff, der allgemein verwendet wird, um einen technologiegestützten Überprüfungsprozess zu beschreiben, der die Verwendung eines Algorithmus für maschinelles Lernen verwendet, um relevante von nicht relevanten Dokumenten zu unterscheiden, basierend auf einem Thema Kodierung eines Schulungsdokumentenbergs durch den Sachverständigen. Diese Definition von prädiktiver Codierung enthält eine Basisbeschreibung, die eine bestimmte Funktion identifiziert, die ein allgemeiner Satz häufig akzeptierter Algorithmen für maschinelles Lernen in einer technologieunterstützten Überprüfung (TAR) verwenden kann.

Angesichts des wachsenden Bewusstseins und der Verwendung von prädiktiver Codierung im juristischen Bereich scheint es für Experten für elektronische Discovery immer wichtiger zu sein, ein allgemeines Verständnis der Technologien zu haben, die in elektronischen Discovery-Plattformen implementiert werden können, um die vorausschauende Codierung zu erleichtern von elektronisch gespeicherten Informationen. Dieses allgemeine Verständnis ist von wesentlicher Bedeutung, da jeder potenzielle algorithmische Ansatz Effizienzvorteile und -nachteile aufweist, die sich auf die Effizienz und Wirksamkeit von Predictive Coding auswirken können.

Um bei der Entwicklung dieses allgemeinen Verständnisses von prädiktiven Codierungstechnologien zu helfen und Anbietern elektronischer Entdeckungen die Möglichkeit zu geben, die Technologien und Protokolle, die sie auf und mit ihren Plattformen verwenden, um vorausschauende Codierung zu ermöglichen, die folgenden Arbeitslisten der prädiktiven Codierung Technologien und TAR-Protokolle stehen Ihnen zur Verfügung. Arbeitslisten zu prädiktiven Codierungs-Workflows und -Anwendungen werden ebenfalls berücksichtigt, da sie helfen zu definieren, wie die prädiktiven Codierungstechnologien und TAR-Protokolle implementiert und verwendet werden.

Eine Arbeitsliste von Predictive Coding Technologien (1,2,3,4)

Zusammengefasst von Experten für elektronische Discovery, die auf professionellen Publikationen und persönlichen Gesprächen basieren, finden Sie unten eine nicht allumfassende Arbeitsliste identifizierter Machine Learning-Technologien, die angewendet wurden oder das Potenzial haben, auf die Disziplin von eDiscovery angewendet zu werden prädiktive Codierung. Diese Arbeitsliste soll einen Bezugspunkt für identifizierte prädiktive Codierungstechnologien bieten und kann im Laufe der Zeit Ergänzungen, Anpassungen und Änderungen enthalten, die auf Rückmeldungen von Experten und Organisationen basieren, die diese Mainstream-Technologien in ihren spezifischen eDiscovery-Plattformen anwenden und implementieren.

Gelistet in alphabetischer Reihenfolge

Aktives Lernen: Ein typischerweise iterativer Prozess, bei dem ein Algorithmus verwendet wird, um Dokumente auszuwählen, die auf einer Strategie basieren, die dem Klassifikationsalgorithmus helfen soll, effizient zu lernen.

Entscheidungsbaum: Eine schrittweise Methode zur Unterscheidung zwischen relevanten und nicht relevanten Dokumenten, je nachdem, welche Kombination von Wörtern (oder anderen Merkmalen) sie enthalten. Ein Entscheidungsbaum zur Identifizierung von Dokumenten zu Finanzderivaten könnte zunächst bestimmen, ob ein Dokument das Wort „Swap“ enthielt oder nicht. Wenn dies der Fall ist, könnte die Entscheidungsstruktur dann bestimmen, ob das Dokument „Kredit“ enthielt oder nicht. Ein Entscheidungsbaum kann entweder durch Knowledge Engineering oder maschinelles Lernen erstellt werden.

K-Nearest Neighbor Classifier (k-nN): Ein Klassifikationsalgorithmus, der die k-Beispieldokumente analysiert, die dem klassifizierten Dokument am ähnlichsten (am nächsten) sind, um die beste Klassifizierung für das Dokument zu bestimmen. Wenn k zu klein ist (z. B. k = 1), kann es äußerst schwierig sein, einen hohen Rückruf zu erreichen.

Latente Semantic Analysis (LSA): Eine mathematische Darstellung von Dokumenten, die stark korrelierte Wörter (dh Wörter, die in denselben Dokumenten auftreten) als in gewisser Weise gleichwertig oder austauschbar behandelt. Diese Äquivalenz oder Austauschbarkeit kann es Algorithmen ermöglichen, Dokumente als konzeptionell ähnlich zu identifizieren, selbst wenn sie nicht dieselben Wörter verwenden (z. B. weil Synonyme stark korreliert sein können), obwohl sie auch einige potenziell nützliche Informationen verwerfen und zu unerwünschten Ergebnissen führen können, die durch unecht Korrelationen.

Logistische Regression: Ein hochmoderner überwachter Lernalgorithmus für maschinelles Lernen, der die Wahrscheinlichkeit schätzt, dass ein Dokument relevant ist, basierend auf den darin enthaltenen Merkmalen. Im Gegensatz zum Naïve Bayes, Algorithmus, identifiziert Logistic Regression Merkmale, die zwischen relevanten und nicht relevanten Dokumenten unterscheiden.

Naive Bayesian Classifier: Ein System, das die Wahrscheinlichkeit untersucht, mit der jedes Wort in einem neuen Dokument aus der Wortverteilung stammt, die aus einem trainierten responsiven Dokument oder trainierten nicht reagierenden Dokumenten stammt. Das System ist naiv in dem Sinne, dass es davon ausgeht, dass alle Wörter voneinander unabhängig sind.

Neuronales Netzwerk: Ein künstliches neuronales Netzwerk (ANN) ist ein rechnergestütztes Modell. Es basiert auf der Struktur und den Funktionen biologischer neuronaler Netze. Es funktioniert wie die Art, wie das menschliche Gehirn Informationen verarbeitet. Es umfasst eine große Anzahl verbundener Verarbeitungseinheiten, die zusammenarbeiten, um Informationen zu verarbeiten.

Probabilistische latente Semantic Analysis (PLSA): Dies ist im Geiste ähnlich wie LSA, verwendet jedoch ein probabilistisches Modell, um erwartete Ergebnisse zu erzielen.

Random Forests: Eine Ensemble-Lernmethode für Klassifikation, Regression und andere Aufgaben, die dazu dienen, eine Vielzahl von Entscheidungsbäumen zur Trainingszeit zu konstruieren und die Klasse auszugeben, die den Modus der Klassen (Klassifikation) oder die mittlere Vorhersage (Regression) der einzelnen Bäume darstellt. Zufällige Entscheidungswälder, die die Gewohnheit der Entscheidungsbäumen zu korrigieren, übermäßig an ihr Trainingsset zu

Relevanz-Feedback: Ein aktiver Lernprozess, bei dem die Dokumente mit der höchsten Relevanzwahrscheinlichkeit von einem Menschen codiert und dem Trainingsset hinzugefügt werden.

Support Vector Machine: Ein mathematischer Ansatz, der darauf abzielt, eine Linie zu finden, die von nicht reagierenden Dokumenten trennt, sodass sich im Idealfall alle responsiven Dokumente auf einer Seite und alle nicht reagierenden Dokumente auf der anderen Seite befinden.

Allgemeine TAR-Protokolle (5,6,7,8,9,10)

Darüber hinaus werden diese Technologien in der Regel als Teil eines TAR-Protokolls verwendet, das bestimmt, wie die Technologien verwendet werden. Beispiele für TAR-Protokolle sind:

Gelistet in alphabetischer Reihenfolge

Continuous Active Learning® (CAL®): In CAL® wählt der von Maura R. Grossman und Gordon V. Cormack entwickelte, verwendete und befürwortete TAR-Methode nach dem ersten Schulungssatz wiederholt die nächstfach relevanten Dokumente (die noch nicht in Betracht gezogen wurden) zur Überprüfung, Codierung und Schulung aus. und tut dies so lange, bis es keine relevanteren Dokumente mehr findet. Es gibt im Allgemeinen keine zweite Überprüfung, da zum Zeitpunkt des Lernenden mit dem Lernen alle Dokumente, die vom Teilnehmer als relevant erachtet werden, bereits identifiziert und manuell überprüft wurden.

Hybride multimodale Methode: Ein vom e-Discovery Team (Ralph Losey) entwickelter Ansatz, der alle Arten von Suchmethoden umfasst, wobei primär auf prädiktives Codieren und die Verwendung von hochrangigen Dokumenten für kontinuierliches aktives Training angewiesen ist.

Scalable Continuous Active Learning (S-CAL): Der wesentliche Unterschied zwischen S-CAL und CAL besteht darin, dass für S-CAL nur eine endliche Stichprobe von Dokumenten aus jeder nachfolgenden Charge zur Etikettierung ausgewählt wird und der Prozess fortgesetzt wird, bis die Sammlung - oder eine große Stichprobe der Sammlung - erschöpft ist. Zusammen bilden die endlichen Stichproben eine geschichtete Stichprobe der Dokumentenpopulation, aus der eine statistische Schätzung von ρ abgeleitet werden kann.

Simple Active Learning (SAL): In SAL-Methoden wählt der Lernende nach dem ersten Training die vom Lehrer zu überprüfenden und zu codierenden Dokumente aus und wählt als Trainingsbeispiele aus und wählt weiterhin Beispiele aus, bis sie ausreichend trainiert sind. In der Regel sind die Dokumente, die der Lernende wählt, diejenigen, über die sich der Lernende am wenigsten sicher ist und daher am meisten lernen wird. Sobald er ausreichend trainiert ist, wird der Lernende verwendet, um jedes Dokument in der Sammlung zu kennzeichnen. Wie bei SPL werden die als relevant gekennzeichneten Dokumente in der Regel manuell überprüft.

Einfaches passives Lernen (SPL): Bei einfachen passiven Lernmethoden („SPL“) wählt der Lehrer (d. h. menschlicher Operator) die Dokumente aus, die als Trainingsbeispiele verwendet werden sollen. Der Lernende wird anhand dieser Beispiele geschult und wird verwendet, sobald er ausreichend trainiert ist, um jedes Dokument in der Sammlung als relevant oder nicht relevant. Im Allgemeinen werden die vom Teilnehmer als relevant eingestuften Dokumente manuell überprüft. Diese manuelle Überprüfung stellt einen kleinen Bruchteil der Sammlung und damit einen kleinen Bruchteil der Zeit und Kosten einer erschöpfenden manuellen Überprüfung dar.

TAR-Workflows (11)

TAR-Workflows stellen die praktische Anwendung von Predictive-Codierungstechnologien und -protokollen dar, um Ansätze zur Durchführung prädiktiver Codierungsaufgaben zu definieren. Drei Beispiele für TAR-Workflows sind:

TAR 1.0 beinhaltet eine Trainingsphase, gefolgt von einer Überprüfungsphase mit einem Kontrollsatz, der verwendet wird, um den optimalen Punkt zu bestimmen, an dem Sie von der Schulung zur Überprüfung wechseln sollten. Das System lernt nicht mehr, wenn die Trainingsphase abgeschlossen ist. Das Kontrollset ist ein zufälliger Satz von Dokumenten, die überprüft und als relevant oder nicht relevant gekennzeichnet wurden. Die Kontrollsatzdokumente werden nicht verwendet, um das System zu trainieren. Sie werden verwendet, um die Prognosen des Systems zu bewerten, damit das Training beendet werden kann, wenn die Vorteile zusätzlicher Schulungen die Kosten für zusätzliche Schulungen nicht mehr überwiegen. Das Training kann mit zufällig ausgewählten Dokumenten durchgeführt werden, die als Simple Passive Learning (SPL) bezeichnet werden, oder es kann Dokumente beinhalten, die vom System ausgewählt wurden, um die Lerneffizienz zu optimieren, bekannt als Simple Active Learning (SAL).

TAR 2.0 verwendet einen Ansatz namens Continuous Active Learning® (CAL®), was bedeutet, dass es keine Trennung zwischen Training und Review gibt - das System lernt durchweg weiter. Während viele Ansätze verwendet werden können, um Dokumente zur Überprüfung auszuwählen, besteht eine bedeutende Komponente von CAL® darin, Vorhersagen zu prognostizieren, welche Dokumente am ehesten relevant sind, sie überprüfen und die Prognosen aktualisieren. Im Gegensatz zu TAR 1.0 ist TAR 2.0 tendenziell sehr effizient, selbst wenn die Prävalenz niedrig ist. Da es keine Trennung zwischen Training und Review gibt, benötigt TAR 2.0 kein Kontrollset. Das Generieren eines Kontrollsatzes kann die Überprüfung einer großen Anzahl (insbesondere bei geringer Prävalenz) von nicht relevanten Dokumenten beinhalten, sodass es wünschenswert ist, Kontrollsätze zu vermeiden.

TAR 3.0 erfordert einen qualitativ hochwertigen konzeptionellen Clustering-Algorithmus, der eng fokussierte Cluster von fester Größe im Konzeptbereich bildet. Es wendet die TAR 2.0-Methodik nur auf die Clusterzentren an, wodurch sichergestellt wird, dass eine Vielzahl potenziell relevanter Dokumente überprüft wird. Sobald keine relevanten Clusterzentren mehr gefunden werden können, werden die überprüften Clusterzentren als Schulungsunterlagen verwendet, um Prognosen für die gesamte Dokumentenpopulation zu treffen. Es ist kein Kontrollsatz erforderlich — das System ist gut ausgebildet, wenn keine zusätzlichen relevanten Clusterzentren gefunden werden können. Die Analyse der überprüften Clusterzentren liefert eine Schätzung der Prävalenz und der Anzahl der nicht relevanten Dokumente, die erstellt würden, wenn Dokumente ausschließlich auf der Grundlage der Prognosen ohne menschliche Überprüfung erstellt würden. Der Benutzer kann entscheiden, Dokumente zu erstellen (die nicht als potenziell privilegiert identifiziert wurden) ohne Überprüfung, ähnlich wie SAL von TAR 1.0 (aber ohne Kontrollsatz), oder er kann entscheiden, Dokumente zu überprüfen, die zu viel Risiko haben, nicht relevant zu sein (die als zusätzliche Schulung für das System verwendet werden können, dh CAL®). Der entscheidende Punkt ist, dass der Benutzer die Informationen hat, die er benötigt, um eine Entscheidung darüber zu treffen, wie er nach Abschluss der Überprüfung der wahrscheinlich relevanten Clusterzentren vorgehen muss, und nichts getan, bevor dieser Punkt durch die Entscheidung ungültig wird (vergleichen Sie mit TER 1.0, Überprüfen eines Kontrollsatzes, dass die Vorhersagen nicht gut genug sind, um Dokumente ohne Überprüfung zu erstellen und dann zu TAR 2.0 zu wechseln, was das Kontrollset praktisch unbrauchbar macht).

TAR verwendet (12)

TAR-Technologien, -Protokolle und -Workflows können effektiv verwendet werden, um eDiscovery-Experten dabei zu helfen, viele Aufgaben zur Datenermittlung und rechtlichen Ermittlung zu erfüllen. Neun allgemein angesehenen Beispiele für die Verwendung von TAR sind:

Identifizierung relevanter Dokumente

Frühe Fallbewertung/Untersuchung

Priorisierung für Review

Kategorisierung (nach Themen, zur Vertraulichkeit oder zum Datenschutz)

Privilege Bewertung

Qualitätskontrolle und Qualitätssicherung

Überprüfung der Incoming Productions

Disposition/Testvorbereitung

Information Governance und Datendisposition

Informationen zur Umfrage (13.14,15,16,17,18, 19, 20)

Referenzen

(1) Grossman, M. und Cormack, G. (2013). Das Grossman-Cormack-Glossar für technologieunterstützte Review. [E-Book] Überprüfung des Bundesgerichts. Verfügbar unter: http://www.fclr.org/fclr/articles/html/2010/grossman.pdf [Abgerufen 31. August 2018].

(2) Dimm, B. (2018). Expertise im Bereich Predictive Coding. [E-Mail].

(3) Roitblat, H. (2013). Einführung in Predictive Coding. [Ebook] OrcateC. Verfügbar um: 31. August 2018].

(4) Tredennick, J. und Pickens, J. (2017). Deep Learning in der E-Discovery: Der Hype vorbeizieht. [online] CatalystSecure.com. Verfügbar um: 31. August 2018].

(5) Grossman, M. und Cormack, G. (2017). Technologie-unterstützte Überprüfung in der elektronischen Entdeckung. [ebook] Erhältlich um: 31. August 2018].

(6) Grossman, M. und Cormack, G. (2016). Kontinuierliches aktives Lernen für TAR. [eBook] Praktisches Recht. Verfügbar um: 31. August 2018].

(7) Grossman, M. und Cormack, G. (2016). Skalierbarkeit des kontinuierlichen aktiven Lernens für eine zuverlässige Textklassifizierung mit hohem Rückruf. [ebook] Erhältlich bei: 3. September 2018].

(8) Losey, R., Sullivan, J. und Reichenberger, T. (2015). e-Discovery Team auf der TREC 2015 Total Recall Track. [ebook] Erhältlich um: 1. September 2018].

(9) „CONTINUOUS ACTIVE LEARNING Trademark von Maura Grossman und Gordon V. Cormack — Registrierungsnummer 5876987 — Seriennummer 86634255። Justia Marken“. Trademarks.JustiA.com, 2020, 12. Feb. 2020].

(10) „CAL Warenzeichen von Maura Grossman And Gordon V. Cormack — Registrierungsnummer 5876988 — Seriennummer 86634265። Justia Marken“. Trademarks.JustiA.com, 2020, 12. Feb. 2020].

(11) Dimm, B. (2016), TER 3.0-Leistung. [online] Clustify Blog — eDiscovery, Document Clustering, Predictive Coding, Informationsbeschaffung und Softwareentwicklung. Verfügbar am: 18. Februar 2019].

(12) Electronic Discovery-Referenzmodell (EDRM) (2019). Richtlinien für technologieunterstützte Überprüfungen (TAR) [online] Verfügbar am: 18.02.2019].

(13) Dimm, B. (2018). TAR, Proportionalität und schlechte Algorithmen (1-NN). [online] Clustify Blog — eDiscovery, Document Clustering, Predictive Coding, Informationsbeschaffung und Softwareentwicklung. Verfügbar um: 31. August 2018].

(14) Robinson, R. (2013). Laufergebnisse: Umfrage zur Implementierung eines Anbieters mit prädiktiver Codierung. [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar um: 31. August 2018].

(15) Robinson, R. (2018). Eine laufende Liste: Die 100+ besten eDiscovery-Anbieter. [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar um: 31. August 2018].

(16) Robinson, R. (2018) Relativ gesehen: Ergebnisse der Umfrage von Predictive Coding Technologies and Protocols [online] ComplexDiscovery: eDiscovery Information. Verfügbar am: 18. Februar 2019].

(17) Robinson, R. (2019) Aktiv lernen? Ergebnisse der Umfrage zu Predictive Coding Technologien und Protokollen [online] ComplexDiscovery: eDiscovery Information. Erhältlich um: 22 Aug. 2019]

(18) Robinson, R. (2019) Von Plattformen zu Workflows: Predictive Coding Technologies and Protocols Survey - Ergebnisse für Herbst 2019 [online] ComplexDiscovery: eDiscovery Information. Verfügbar am 12. Februar 2020].

(19) Robinson, R. (2020) Ist alles relativ? Umfrage zu Predictive Coding Technologien und Protokollen - Ergebnisse im Frühling [online] ComplexDiscovery: eDiscovery Information. Verfügbar unter: [Abgerufen am 7. August 2020].

(20) Robinson, R. (2020) Werfen eines breiteren Netzes? Umfrage zu Predictive Coding Technologien und Protokollen — Herbst 2020 [online] ComplexDiscovery: eDiscovery Information. Verfügbar am 5. Februar 2021].

Klicken Sie hier, um spezifische Ergänzungen, Korrekturen und Aktualisierungen bereitzustellen.

* Befragte für Predictive Coding Survey: Sechs Umfragen

0 — Befragte für Predictive Coding Survey (individuell und zusammengefasste) — Sechs Umfragen

Quelle: ComplexDiscovery

Zuerst erwirbt Legal eDiscovery Provider Redpoint Technologies

According to Alex Martinez, CEO of First Legal, “Both First Legal...

Veristar erwirbt Planet-Daten

According to Veristar company founder, CEO, and president Rick Avers, “We...

Questel erwirbt DoeLegal

doeLEGAL today announced that it has been acquired by intellectual property...

Folgt man dem Geld? Mike Bryant bietet einen soliden Überblick über Fusionen und Übernahme von Legal Tech

From seed and venture capital investments to private equity and Special...

Eine neue Ära in eDiscovery? Rahmen des Marktwachstums durch die Linse von sechs Epochen

There are many excellent resources for considering chronological and historiographical approaches...

Ein eDiscovery-Markt-Mashup: 2020-2025 Weltweiter Überblick über Software und Services

While the Compound Annual Growth Rate (CAGR) for worldwide eDiscovery software...

Die Baseline zurücksetzen? eDiscovery-Marktgrößenanpassungen für 2020

An unanticipated pandemeconomic-driven retraction in eDiscovery spending during 2020 has resulted...

Heim oder weg? Überlegungen zur Größenbestimmung und Preisgestaltung im eDiscovery-Sammlungsmarkt

One of the key home (onsite) or away (remote) decisions that...

Fünf großartige Lesungen auf eDiscovery für Februar 2021

From litigation trends and legal tech investing to facial recognition and...

Fünf großartige Lesungen auf eDiscovery für Januar 2021

From eDiscovery business confidence and operational metrics to merger and acquisition...

Fünf großartige Lesungen auf eDiscovery für Dezember 2020

May the peace and joy of the holiday season be with...

Fünf großartige Lesungen auf eDiscovery für November 2020

From market sizing and cyber law to industry investments and customer...

HayStackID im IDC MarketScape für eDiscovery Services anerkannt

According to HaystackID CEO Hal Brooks, “We are proud to once...

Eine generationelle Sicht der Remote-Sicherheit? HayStackID™ veröffentlicht 3.0 Sicherheitsverbesserungen zur Überprüfung der Technologie

According to HaystackID's Senior Vice President and General Manager for Review...

Nur eine Frage der Zeit? HayStackID startet neuen Service für die Erkennung und Überprüfung von Datenschutzverletzungen

According to HaystackID's Chief Innovation Officer and President of Global Investigations,...

Es ist ein Spiel! Fokussierung auf die Gesamtkosten der eDiscovery-Überprüfung mit ReviewRight Match

As a leader in remote legal document review, HaystackID provides clients...

Kaltes Wetter Catch? Umfrage zu Predictive Coding Technologien und Protokollen — Ergebnisse des Frühjahrs 2021

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual...

Kommst du aus dem Wald? Achtzehn Beobachtungen zum Vertrauen in eDiscovery im Winter 2021

In the winter of 2021, 85.0% of eDiscovery Business Confidence Survey...

Probleme, die sich auf die Geschäftsentwicklung von eDiscovery auswirken: Ein Überblick über den

In the winter of 2021, 43.3% of respondents viewed budgetary constraints...

Nicht so herausragend? Operative Metriken von eDiscovery im Winter 2021

In the winter of 2021, eDiscovery Business Confidence Survey more...