Wirst du ein breiteres Netz? Umfrage zu Predictive Coding Technologies und Protokolle — Ergebnisse Herbst 2020

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual survey designed to help provide a general understanding of the current application of predictive coding technologies, protocols, workflows, and uses by data discovery and legal discovery professionals.

en flag
nl flag
et flag
fi flag
fr flag
de flag
pt flag
ru flag
es flag

Anmerkung der Redaktion: Dies sind die Ergebnisse der fünften halbjährlichen Predictive Coding Technologies and Protocols Survey, die von ComplexDiscovery durchgeführt wurde. Ab heute haben die fünf Umfragen detailliertes Feedback von 319 Fachleuten aus Rechts-, Geschäfts- und Technologie-Fachleuten über den Einsatz spezifischer maschineller Lerntechnologien im prädiktiven Coding gegeben. Die Umfragen haben auch Einblicke in die Verwendung dieser maschinellen Lerntechnologien als Teil von Beispielprotokollen zur technologiegestützten Überprüfung gegeben.

Diese Iteration der Umfrage umfaßte 85 Responder und konzentrierte sich weiterhin auf prädiktive Codierungstechnologien, Protokolle, Workflows und Verwendungen im eDiscovery-Ökosystem. Die Herbst-2020-Umfrage enthielt auch eine neue Frage zur Prävalenz der prädiktiven Codierung als Teil der eDiscovery-Workflows.

Die Umfrage „Predictive Coding Technologies und Protokolle Herbst 2020“

Die Predictive Coding Technologies and Protocols Survey ist eine nicht-wissenschaftliche Umfrage, die entwickelt wurde, um ein allgemeines Verständnis der Verwendung von Predictive Coding Technologien, Protokollen und Workflows durch Datenermittlungs- und Rechtsexperten innerhalb des eDiscovery-Ökosystems zu vermitteln. Die Herbst-2020-Umfrage wurde vom 7. August 2020 bis zum 14. August 2020 eröffnet, wobei Einzelpersonen eingeladen wurden, direkt von ComplexDiscovery teilzunehmen.

Die Umfrage wurde entwickelt, um ein allgemeines Verständnis der prädiktiven Codierungstechnologien und -protokolle zu vermitteln und hatte zwei primäre Bildungsziele:

Bereitstellung einer konsolidierten Auflistung potenzieller vorausschauender Codierungstechnologie, Protokoll- und Workflow-Definitionen. Obwohl das Angebot nicht umfassend oder umfassend ist, wurde das Angebot mit ausgewählten Experten für prädiktive Codierung in der Industrie auf Vollständigkeit und Genauigkeit geprüft, so dass es für den Einsatz in Bildungsmaßnahmen profitabel zu sein scheint.

Informieren Sie sich über eDiscovery-Ökosystem-Experten über ihre Präferenzen und Nutzungsmuster in Bezug auf prädiktive Codierungsplattformen, Technologien, Protokolle, Workflows und Einsatzbereiche.

Die Umfrage bot den Respondern die Möglichkeit, Hintergrundinformationen zu prädiktiven Codierungen, einschließlich ihrer primären Predictive Coding Plattform, bereitzustellen und stellte fünf spezifische Fragen an die Responder. Diese Fragen sind:

Wie oft verwenden Sie Predictive Coding als Teil Ihres eDiscovery-Workflows? (Prävalenz)

Welche prädiktiven Codierungstechnologien werden von Ihrer eDiscovery-Plattform genutzt? (Technologien)

Welche technologiegestützten Prüfprotokolle werden bei der Bereitstellung von prädiktiven Codierung verwendet? (Protokolle)

Was ist der primäre technologiegestützte Review-Workflow, der bei der Bereitstellung von Predictive Codierung verwendet wird? (Workflow)

Was sind die Bereiche, in denen Sie technologiegestützte Überprüfungstechnologien, Protokolle und Workflows einsetzen? (Einsatzbereiche)

August 2020 geschlossen, hatte die Herbst-2020-Umfrage 85 Responder.

Wichtige Ergebnisse und Beobachtungen

Übersicht über Predictive Coding Technology und Protocol Survey Responder (Abbildung 1)

43,53% der Responder stammten von Anwaltskanzleien.

35,29% der Responder stammten aus Software- oder Dienstleistungserorganisationen.

Die restlichen 21,18% der Responder waren entweder Teil einer Beratungsfirma (8,24%), einer Körperschaft (4,71%), der Regierung (1,18%) oder einer anderen Art von Unternehmen (7,06%).

Primäre Plattform für prädiktive Codierung (Abbildung 2)

89,41% der Responder berichteten, dass sie mindestens eine primäre Plattform für prädiktive Codierung haben.

Es wurden 22 verschiedene Plattformen von Respondern als primäre prädiktive Codierungsplattform gemeldet.

Die Relativitätstheorie wurde von 36,47% der Befragten als primäre prädiktive Codierungsplattform gemeldet.

Die beiden wichtigsten Plattformen wurden von 52,94% der Befragten als primäre Predictive Codierungsplattform gemeldet.

10,59% der Responder berichteten, dass sie keine primäre Plattform für prädiktive Codierung hatten.

Prävalenz der prädiktiven Codierung in eDiscovery (Abbildung 3)

Mehr als ein Drittel der Umfrage-Responder (36,47%) berichteten mehr als 50% der Zeit über Predictive Coding in ihrem eDiscovery-Workflow.

80% der Responder berichteten, die vorausschauende Codierung in ihrem eDiscovery-Workflow verwenden, mindestens 5% der Zeit.

Nur 20% der Responder berichteten, die Predictive Coding in ihrem eDiscovery-Workflow verwenden, weniger als 5% der Zeit.

Beschäftigung in der vorausschauenden Codierung (Schaubild 4)

Active Learning wurde als die am häufigsten verwendete Predictive Coding Technologie berichtet, wobei 88,24% der Responder es in ihren prädiktiven Codierungsbemühungen nutzten.

36,47% der Responder berichteten, dass sie bei ihren prädiktiven Codierungsbemühungen nur eine Predictive Codierungstechnologie verwenden.

61,18% der Responder berichteten, dass sie mehr als eine Predictive Codierungstechnologie in ihren prädiktiven Codierungsbemühungen verwenden.

2,35% der Responder meldete keine spezifische Predictive Codierungstechnologie.

Technologie-gestütztes Prüfprotokoll Beschäftigung (Schaubild 5)

Alle aufgelisteten technologiegestützten Protokolle für die prädiktive Codierung wurden von mindestens einem Befragten als verwendet gemeldet.

Continuous Active Learning® (CAL®) wurde als das am häufigsten verwendete prädiktive Codierungsprotokoll berichtet, da 88,24% der Responder es bei ihren prädiktiven Codierungsbemühungen nutzten.

49,41% der Responder berichteten, dass sie nur ein Prädiktives Codierungsprotokoll in ihren prädiktiven Codierungsbemühungen verwenden.

48,24% der Responder berichteten, dass sie mehr als ein Predictive Codierungsprotokoll in ihren prädiktiven Codierungsbemühungen verwenden.

2.35% der Responder berichteten, dass kein Predictive Coding Protokoll verwendet wurde.

Technologie-gestützte Überprüfung Workflow Beschäftigung (Schaubild 6)

68,24% der Responder berichteten, dass Technology-Assisted Review (TAR) 2.0 als primären Workflow bei der Bereitstellung von prädiktiven Codierung verwendet wurde.

8,24% der Responder, die mit TAR 1.0 und 11,76% der Responder gemeldet wurden, die TAR 3.0 als primären Workflow bei der Bereitstellung von Predictive Coding verwenden.

11,76% der Responder meldete nicht, TAR 1.0, TAR 2.0 oder TAR 3.0 als primären Workflow bei der Bereitstellung von prädiktiven Codierung zu verwenden.

Technologie-gestützte Überprüfungsverwendungen (Abbildung 7)

92,94% der Responder berichteten über technologieunterstützte Überprüfung in mehr als einem Bereich der Daten und der rechtlichen Ermittlung.

94,12% der Responder, die bei der Identifizierung relevanter Dokumente mit technologiegestützter Überprüfung gemeldet wurden.

16,47% der Responder, die im Rahmen einer technologiegestützten Überprüfung für Information Governance und Datendisposition gemeldet wurden.

Vermessungsdiagramme

(Diagramme können zur detaillierten Anzeige erweitert werden.)

Diagramm 1: Überblick über die Befragung (Hintergrund)

1-Prädiktive-Coding-Technologien-und-Protokoll-Vermessungs-Überblick-Herbst-2020

Abbildung 2: Name der primären prädiktiven Codierungsplattform (Hintergrund)

2-Primar-Predictive-Ccoding-Plattform-Herbst-2020

Diagramm 3: Wie oft verwenden Sie Predictive Coding als Teil Ihres eDiscovery-Workflows? (Frage #1)

3-Prädiktive-Coding-Verwendungs-Prävalenz-Herbst-2020

Abbildung 4: Welche prädiktiven Codierungstechnologien werden von Ihrer eDiscovery-Plattform genutzt? (Frage #2)

4-Prädiktive-Ccoding-Technologie-Used-Herbst-2020

Abbildung 5: Welche technologiegestützten Prüfprotokolle werden bei der Bereitstellung von prädiktiven Codierung verwendet? (Frage #3)

5-Technologieunterstützt-Review-Protokoll-Nutzung-Herbst-2020

Diagramm 6: Was ist der primäre technologieunterstützte Review-Workflow, der bei der Bereitstellung von Predictive Codierung verwendet wird? (Frage #4)

6-Technologieunterstützte Review-Workflow-Nutzung-Herbst-2020

Abbildung 7: In welchen Bereichen nutzen Sie technologiegestützte Überprüfungstechnologien, Protokolle und Workflows? (Frage #5)

7-Technologie-Assiststed-Review-Verwendungen-Herbst-2020

Predictive Coding Technologien und Protokolle (Survey Backgrounder)

Wie im Grossman-Cormack Glossar of Technology-Assisted Review (1) definiert, ist Predictive Coding ein branchenspezifischer Begriff, der allgemein verwendet wird, um einen technologiegestützten Überprüfungsprozess zu beschreiben, der die Verwendung eines maschinellen Lernalgorithmus zur Unterscheidung relevanter und nicht relevanter Dokumente basierend auf einem Thema verwendet wird. Materie Experte Codierung eines Trainings-Reihe von Dokumenten. Diese Definition der prädiktiven Codierung bietet eine Baseline-Beschreibung, die eine bestimmte Funktion identifiziert, die ein allgemeiner Satz allgemein akzeptierter Algorithmen für maschinelles Lernen in einer technologieunterstützten Überprüfung (TAR) verwenden kann.

Angesichts des zunehmenden Bewusstseins und der zunehmenden Verwendung von prädiktiven Codierung im Rechtsbereich scheint es für elektronische Discovery-Fachleute immer wichtiger zu sein, ein allgemeines Verständnis der Technologien zu haben, die in elektronischen Discovery-Plattformen implementiert werden können, um vorausschauende Codierung zu erleichtern elektronisch gespeicherte Informationen. Dieses allgemeine Verständnis ist von wesentlicher Bedeutung, da jeder mögliche algorithmische Ansatz Effizienzvorteile und -nachteile hat, die die Effizienz und Wirksamkeit der prädiktiven Codierung beeinflussen können.

Um bei der Entwicklung dieses allgemeinen Verständnisses von Predictive Coding Technologien zu helfen und Anbieter elektronischer Discovery die Möglichkeit zu bieten, die Technologien und Protokolle zu teilen, die sie in und mit ihren Plattformen verwenden, um vorausschauende Codierung zu erreichen, finden Sie die folgenden Arbeitslisten von Predictive Coding -Technologien und TAR-Protokolle werden für Ihre Verwendung bereitgestellt. Arbeitslisten zu prädiktiven Codierungs-Workflows und -Verwendungen sind ebenfalls für Sie enthalten, da sie helfen zu definieren, wie die prädiktiven Codierungstechnologien und TAR-Protokolle implementiert und verwendet werden.

Eine Arbeitsliste der prädiktiven Codierungstechnologien (1,2,3,4)

Zusammengefasst von Experten für elektronische Discovery, die auf Fachpublikationen und persönlichen Gesprächen basieren, ist im Folgenden eine nicht alleinschließende Arbeitsliste identifizierter maschineller Learning-Technologien, die angewendet wurden oder das Potenzial haben, auf die Disziplin von eDiscovery angewendet zu werden, um prädiktive Codierung. Diese Arbeitsliste soll einen Referenzpunkt für identifizierte prädiktive Codierungstechnologien darstellen und kann im Laufe der Zeit Ergänzungen, Anpassungen und Änderungen enthalten, die auf Feedback von Experten und Organisationen basieren, die diese Mainstream-Technologien in ihren spezifischen eDiscovery-Plattformen anwenden und implementieren.

Gelistet in alphabetischer Reihenfolge

Aktives Lernen: Ein Prozess, typischerweise iterativ, bei dem ein Algorithmus verwendet wird, um Dokumente auszuwählen, die für das Training basierend auf einer Strategie überprüft werden sollten, um dem Klassifizierungsalgorithmus zu helfen, effizient zu lernen.

Entscheidungsbaum: Eine Schritt-für-Schritt-Methode zur Unterscheidung zwischen relevanten und nicht relevanten Dokumenten, je nachdem, welche Kombination von Wörtern (oder anderen Merkmalen) sie enthalten. Ein Entscheidungsbaum zur Identifizierung von Dokumenten, die sich auf Finanzderivate beziehen, kann zunächst bestimmen, ob ein Dokument das Wort „Swap“ enthielt. Wenn dies der Fall ist, kann die Entscheidungsstruktur dann bestimmen, ob das Dokument „Kredit“ enthielt usw. Ein Entscheidungsbaum kann entweder durch Knowledge Engineering oder maschinelles Lernen erstellt werden.

K-Nearest Neighbor Classifier (K-NN): Ein Klassifizierungsalgorithmus, der die k-Beispieldokumente analysiert, die dem zu klassifizierenden Dokument am ähnlichsten sind (am nächsten), um die beste Klassifizierung für das Dokument zu ermitteln. Wenn k zu klein ist (z. B. k=1), kann es äußerst schwierig sein, einen hohen Rückruf zu erreichen.

Latent Semantic Analysis (LSA): Eine mathematische Darstellung von Dokumenten, die stark korrelierte Wörter (d. h. Wörter, die in denselben Dokumenten vorkommen) als gleichwertig oder austauschbar behandelt. Diese Äquivalenz oder Austauschbarkeit kann es Algorithmen ermöglichen, Dokumente als konzeptionell ähnlich zu identifizieren, selbst wenn sie nicht dieselben Wörter verwenden (z. B. weil Synonyme stark korreliert sein können), obwohl es auch einige potenziell nützliche Informationen verwirft und zu unerwünschten Ergebnissen führen kann, die durch unscharfe Korrelationen.

Logistische Regression: Ein hochmoderner überwachter Lernalgorithmus für maschinelles Lernen, der die Wahrscheinlichkeit schätzt, dass ein Dokument relevant ist, basierend auf den Funktionen, die es enthält. Im Gegensatz zu den Naiven Bayes, Algorithmus, identifiziert Logistic Regression Merkmale, die zwischen relevanten und nicht relevanten Dokumenten unterscheiden.

Naiver Bayesischer Klassifikator: Ein System, das die Wahrscheinlichkeit untersucht, dass jedes Wort in einem neuen Dokument aus der Wortverteilung stammt, die von einem geschulten reaktionsfähigen Dokument oder trainierten nicht reagierenden Dokumenten abgeleitet wurde. Das System ist naiv in dem Sinne, dass es annimmt, dass alle Wörter voneinander unabhängig sind.

Neural Network: Ein künstliches Neural Network (ANN) ist ein Berechnungsmodell. Es basiert auf der Struktur und den Funktionen biologischer neuronaler Netze. Es funktioniert wie die Art und Weise, wie das menschliche Gehirn Informationen verarbeitet. Es enthält eine große Anzahl von verbundenen Verarbeitungseinheiten, die zusammen arbeiten, um Informationen zu verarbeiten.

Probabilistic Latent Semantic Analysis (PLSA): Dies ist ähnlich wie LSA, aber es verwendet ein probabilistisches Modell, um Ergebnisse zu erzielen, die voraussichtlich besser sein werden.

Random Forest: Eine Ensemble-Lernmethode für Klassifikation, Regression und andere Aufgaben, die durch das Erstellen einer Vielzahl von Entscheidungsbäumen zur Trainingszeit und Ausgabe der Klasse, die den Modus der Klassen (Klassifizierung) oder mittlere Vorhersage (Regression) der einzelnen Bäume darstellt. Zufällige Entscheidung Wälder richtig für Entscheidungsbäumen Gewohnheit, ihre Ausbildung zu überpassen.

Relevanz-Feedback: Ein aktiver Lernprozess, bei dem die Dokumente mit der höchsten Relevanzwahrscheinlichkeit von einem Menschen codiert und dem Trainingsset hinzugefügt werden.

Unterstützung Vector Machine: Ein mathematischer Ansatz, der versucht, eine Zeile zu finden, die reagiert von nicht reagierenden Dokumenten trennt, so dass im Idealfall alle ansprechenden Dokumente auf der einen Seite der Zeile sind und alle nicht reagierenden auf der anderen Seite sind.

Allgemeine TAR-Protokolle (5,6,7,8,9,10)

Darüber hinaus werden diese Technologien in der Regel als Teil eines TAR-Protokolls eingesetzt, das bestimmt, wie die Technologien eingesetzt werden. Beispiele für TAR-Protokolle sind:

Gelistet in alphabetischer Reihenfolge

Continuous Active Learning® (CAL®): In CAL®, der von Maura R. Grossman und Gordon V. Cormack entwickelten, verwendeten und befürworteten TAR-Methode, wählt der Lernende nach der Erstausbildung wiederholt die nächstwahrscheinlichsten Dokumente (die noch nicht berücksichtigt wurden) zur Überprüfung, Codierung und Schulung aus. und tut dies weiter, bis es keine weiteren relevanten Dokumente mehr finden kann. Es gibt in der Regel keine zweite Überprüfung, da bis zum Zeitpunkt des Lernens alle Dokumente, die der Teilnehmer als relevant erachtet, bereits identifiziert und manuell überprüft wurden.

Hybrid-multimodale Methode: Ein vom e-Discovery-Team (Ralph Losey) entwickelter Ansatz, der alle Arten von Suchmethoden umfasst, wobei primär auf prädiktive Codierung und die Verwendung hochrangiger Dokumente für kontinuierliche aktive Schulungen basiert.

Scalable Continuous Active Learning (S-CAL): Der wesentliche Unterschied zwischen S-CAL und CAL® besteht darin, dass für S-CAL nur eine endliche Probe von Dokumenten aus jeder aufeinanderfolgenden Charge zur Kennzeichnung ausgewählt wird und der Prozess fortgesetzt wird, bis die Sammlung — oder eine große Stichprobe der Sammlung — erschöpft ist. Zusammen bilden die endlichen Proben eine geschichtete Stichprobe der Dokumentpopulation, aus der eine statistische Schätzung von ρ abgeleitet werden kann.

Simple Active Learning (SAL): In SAL-Methoden wählt der Teilnehmer nach dem ersten Trainingssatz die Dokumente aus, die vom Lehrer überprüft und codiert werden sollen und als Trainingsbeispiele verwendet werden, und wählt weiterhin Beispiele aus, bis es ausreichend geschult ist. Typischerweise sind die Dokumente, die der Teilnehmer wählt, diejenigen, über die der Teilnehmer am wenigsten sicher ist und daher am meisten lernen wird. Einmal ausreichend geschult, wird der Lernende dann verwendet, um jedes Dokument in der Sammlung zu beschriften. Wie bei SPL werden die als relevant gekennzeichneten Dokumente in der Regel manuell überprüft.

Simple Passive Learning (SPL): In einfachen passiven Learning („SPL“) Methoden wählt der Lehrer (d. h. menschlicher Operator) die Dokumente aus, die als Trainingsbeispiele verwendet werden sollen; der Lernende wird anhand dieser Beispiele geschult und wird nach ausreichender Ausbildung verwendet, um jedes Dokument in der Sammlung als relevant oder nicht-relevant. Im Allgemeinen werden die Dokumente, die vom Teilnehmer als relevant gekennzeichnet sind, manuell überprüft. Diese manuelle Überprüfung stellt einen kleinen Bruchteil der Sammlung dar und somit einen kleinen Bruchteil der Zeit und Kosten einer ausführlichen manuellen Überprüfung.

TAR-Workflows (11)

TAR-Workflows stellen die praktische Anwendung prädiktiver Codierungstechnologien und -protokolle dar, um Ansätze zur Ausführung von prädiktiven Codierungsaufgaben zu definieren. Drei Beispiele für TAR-Workflows sind:

TAR 1.0 beinhaltet eine Trainingsphase, gefolgt von einer Überprüfungsphase, wobei ein Steuersatz verwendet wird, um den optimalen Punkt zu bestimmen, an dem Sie von der Schulung zur Überprüfung wechseln sollten. Nach Abschluss der Trainingsphase lernt das System nicht mehr. Der Kontrollsatz ist ein zufälliger Satz von Dokumenten, die überprüft und als relevant oder nicht relevant markiert wurden. Die Steuersatzdokumente werden nicht zum Trainieren des Systems verwendet. Sie werden verwendet, um die Prognosen des Systems zu beurteilen, so dass die Ausbildung beendet werden kann, wenn die Vorteile zusätzlicher Schulungen nicht mehr die Kosten für zusätzliche Schulungen überwiegen. Das Training kann mit zufällig ausgewählten Dokumenten durchgeführt werden, die als Simple Passive Learning (SPL) bekannt sind, oder es kann Dokumente umfassen, die vom System zur Optimierung der Lerneffizienz ausgewählt werden, bekannt als Simple Active Learning (SAL).

TAR 2.0 verwendet einen Ansatz namens Continuous Active Learning® (CAL®), was bedeutet, dass es keine Trennung zwischen Training und Überprüfung gibt — das System lernt weiter. Zwar können viele Ansätze verwendet werden, um Dokumente zur Überprüfung auszuwählen, aber eine wichtige Komponente von CAL® besteht in vielen Iterationen der Vorhersage, welche Dokumente am ehesten relevant sind, diese zu überprüfen und die Vorhersagen zu aktualisieren. Im Gegensatz zu TAR 1.0 ist TAR 2.0 tendenziell sehr effizient, auch wenn die Prävalenz gering ist. Da es keine Trennung zwischen Training und Review gibt, benötigt TAR 2.0 keinen Steuersatz. Das Generieren eines Steuersatzes kann eine große Anzahl nicht relevanter Dokumente (insbesondere wenn die Prävalenz niedrig ist) überprüfen. Daher ist es wünschenswert, Kontrollsätze zu vermeiden.

TAR 3.0 erfordert einen hochwertigen konzeptionellen Clustering-Algorithmus, der eng fokussierte Cluster fester Größe im Konzeptraum bildet. Sie wendet die TAR 2.0-Methodik nur auf die Clusterzentren an, wodurch sichergestellt wird, dass eine Vielzahl potenziell relevanter Dokumente überprüft wird. Sobald keine relevanten Clusterzentren mehr gefunden werden können, werden die überprüften Clusterzentren als Schulungsdokumente verwendet, um Vorhersagen für die gesamte Dokumentenpopulation zu machen. Ein Steuerungssatz ist nicht erforderlich — das System ist gut ausgebildet, wenn keine weiteren relevanten Cluster-Center gefunden werden können. Die Analyse der überprüften Clusterzentren liefert eine Schätzung der Prävalenz und der Anzahl der nicht relevanten Dokumente, die erstellt werden würden, wenn Dokumente ausschließlich auf der Grundlage der Vorhersagen ohne menschliche Überprüfung erstellt würden. Der Benutzer kann sich entscheiden, Dokumente (nicht als potenziell privilegiert identifiziert) ohne Überprüfung zu erstellen, ähnlich wie SAL von TAR 1.0 (aber ohne Kontrollsatz), oder er kann sich entscheiden, Dokumente zu überprüfen, die zu großes Risiko haben, nicht relevant zu sein (was als zusätzliche Schulung für das System verwendet werden kann, also CAL®). Der entscheidende Punkt ist, dass der Benutzer die Informationen hat, die er benötigt, um eine Entscheidung darüber zu treffen, wie er nach Abschluss der Überprüfung der Cluster-Zentren, die wahrscheinlich relevant sind, vorgehen soll, und nichts getan, bevor dieser Punkt durch die Entscheidung ungültig wird (Vergleich zu Beginn mit TAR 1.0, Überprüfung eines Kontrollsatzes, finden Sie dass die Vorhersagen nicht gut genug sind, um Dokumente ohne Überprüfung zu erstellen, und dann zu TAR 2.0 zu wechseln, wodurch der Steuerungssatz praktisch nutzlos wird).

TAR-Anwendungen (12)

TAR-Technologien, Protokolle und Workflows können effektiv genutzt werden, um eDiscovery-Experten bei der Erfüllung zahlreicher Aufgaben zur Datenermittlung und rechtlichen Ermittlung zu unterstützen. Neun häufig überlegte Beispiele für die Verwendung von TAR sind:

Identifikation relevanter Dokumente

Frühzeitige Fallbeurteilung/Untersuchung

Priorisierung für Überprüfung

Kategorisierung (Nach Problemen, Vertraulichkeit oder Datenschutz)

Überprüfung von Privilegien

Qualitätskontrolle und Qualitätssicherung

Bewertung von Incoming Productions

Disposition/Probevorbereitung

Information Governance und Datendisposition

Erhebungsinformationen (13,14,15,16,17,18, 19)

Verweise

(1) Grossman, M. und Cormack, G. (2013). Das Grossman-Cormack Glossar der technologiegestützten Überprüfung. [ebook] Bundesgerichtliche Rechtsprüfung. Verfügbar unter: http://www.fclr.org/fclr/articles/html/2010/grossman.pdf [Zugriff auf 31. Aug. 2018].

(2) Dimm, B. (2018). Expertise im Bereich Predictive Coding. [E-Mail].

(3) Roitblat, H. (2013). Einführung in das prädiktive Coding. [ebook] Orcatec. Verfügbar am: 31. Aug. 2018].

(4) Tredennick, J. und Pickens, J. (2017). Deep Learning in E-Discovery: Am Hype vorbei. [online] CatalystSecure.com. Verfügbar am: 31. Aug. 2018].

(5) Grossman, M. und Cormack, G. (2017). Technologie-unterstützte Überprüfung in der elektronischen Erkennung. [ebook] Verfügbar am: 31. Aug. 2018].

(6) Grossman, M. und Cormack, G. (2016). Kontinuierliches aktives Lernen für TAR. [ebook] Praktisches Recht. Verfügbar am: 31. Aug. 2018].

(7) Grossman, M. und Cormack, G. (2016). Skalierbarkeit des kontinuierlichen aktiven Lernens für zuverlässige Textklassifizierung mit hohem Rückruf. [ebook] Verfügbar unter: 3. Sep. 2018].

(8) Losey, R., Sullivan, J. und Reichenberger, T. (2015). e-Discovery Team auf der TREC 2015 Total Recall Track. [ebook] Verfügbar unter: 1. Sep. 2018].

(9) „Continuous active learning Markenzeichen von Maura Grossman und Gordon V. Cormack — Registrierungsnummer 5876987 — Seriennummer 86634255። Justia Marken“. Handelsmarks.Justia.com, 2020, 12. Feb. 2020].

(10) „CAL Marke von Maura Grossman und Gordon V. Cormack — Registrierungsnummer 5876988 — Seriennummer 86634265። Justia Marken“. Handelsmarks.Justia.com, 2020, 12. Feb. 2020].

(11) Dimm, B. (2016), TAR 3.0 Performance. [online] Clustify Blog — eDiscovery, Document Clustering, Predictive Coding, Information Retrieval und Software Development. Verfügbar am: 18. Feb. 2019].

(12) Electronic Discovery Reference Model (EDRM) (2019). Richtlinien für technologieunterstützte Überprüfung (TAR). [online] Verfügbar am: 18 Feb. 2019].

(13) Dimm, B. (2018). TAR, Proportionalität und schlechte Algorithmen (1-NN). [online] Clustify Blog — eDiscovery, Document Clustering, Predictive Coding, Information Retrieval und Software Development. Verfügbar am: 31. Aug. 2018].

(14) Robinson, R. (2013). Laufende Ergebnisse: Umfrage zur Implementierung von Predictive Coding mit einem Frage-Anbieter. [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar am: 31. Aug. 2018].

(15) Robinson, R. (2018). Eine ausgeführte Liste: Top 100 eDiscovery-Anbieter. [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar am: 31. Aug. 2018].

(16) Robinson, R. (2018) Relativ gesehen: Ergebnisse der Vorhersage-Technologien und Protokolle [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar am: 18. Feb. 2019].

(17) Robinson, R. (2019) Aktiv lernen? Predictive Coding Technologies und Protokolle Survey Ergebnisse [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar am: 22. Aug. 2019]

(18) Robinson, R. (2019) Von Plattformen zu Workflows: Predictive Coding Technologies and Protocol Survey — Ergebnisse Herbst 2019 [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar am: 12. Feb. 2020].

(19) Robinson, R. (2020) Ist alles relativ? Umfrage zu prädiktiven Codierungstechnologien und Protokollen - Frühlingsergebnisse [online] ComplexDiscovery: eDiscovery-Informationen. Verfügbar unter: [Zugriff auf 7. August 2020].

Klicken Sie hier, um spezifische Ergänzungen, Korrekturen und Aktualisierungen bereitzustellen.

Quelle: ComplexDiscovery

Veritas erwirbt Globanet

“By integrating Globanet’s technology into our digital compliance portfolio, we’re making...

Fünf große Lesevorgänge auf eDiscovery für September 2020

From cloud forensics and cyber defense to social media and surveys,...

Zeit für eine Veränderung? FTC schlägt Änderungen an HSR Act Premerger Notifizierungsregeln vor

The Federal Trade Commission, with the support of the Department of...

Eine eDiscovery-Weihnachtssaison Down Under? Macquarie bereitet Nuix für den Börsengang vor

According to John Beveridge, writing for Small Caps, Macquarie holds a...

A Running List: Top 100+ eDiscovery Providers

Based on a compilation of research from analyst firms and industry...

Das eDisclosure Systems Buyers Guide — 2020 Edition (Andrew Haslam)

Authored by industry expert Andrew Haslam, the eDisclosure Buyers Guide continues...

Das Rennen zur Startlinie? Aktuelle Ankündigungen zur sicheren Remote-Überprüfung

Not all secure remote review offerings are equal as the apparent...

Remote-eDiscovery aktivieren? Eine Momentaufnahme von DaaS

Desktop as a Service (DaaS) providers are becoming important contributors to...

Heim oder weg? Überlegungen zur Größenbestimmung und Preisgestaltung im eDiscovery-Sammlungsmarkt

One of the key home (onsite) or away (remote) decisions that...

Revisionen und Entscheidungen? Neue Überlegungen für eDiscovery Secure Remote Reviews

One of the key revision and decision areas that business, legal,...

Ein makroökonomisches Blick auf die Größe der vergangenen und projizierten eDiscovery-Märkte von 2012 bis 2024

From a macro look at past estimations of eDiscovery market size...

Ein eDiscovery Market Size Mashup: 2019-2024 Weltweiter Überblick über Software und Services

While the Compound Annual Growth Rate (CAGR) for worldwide eDiscovery software...

Festlich oder restive? Die eDiscovery-Umfrage zum Vertrauen in Unternehmen im Herbst 2020

Since January 2016, 2,189 individual responses to nineteen quarterly eDiscovery Business...

Wirst du ein breiteres Netz? Umfrage zu Predictive Coding Technologies und Protokolle — Ergebnisse Herbst 2020

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual...

Geschäft als ungewöhnlich? Achtzehn Beobachtungen zum Vertrauen in eDiscovery im Sommer 2020

Based on the aggregate results of nineteen past eDiscovery Business Confidence...

Ein wachsendes Anliegen? Budgetbeschränkungen und das Geschäft von eDiscovery

In the summer of 2020, 56% of respondents viewed budgetary constraints...

Veritas erwirbt Globanet

“By integrating Globanet’s technology into our digital compliance portfolio, we’re making...

Eine eDiscovery-Weihnachtssaison Down Under? Macquarie bereitet Nuix für den Börsengang vor

According to John Beveridge, writing for Small Caps, Macquarie holds a...

ayfie wird Haive erwerben

According to Johannes Stiehler, CEO of ayfie Group AS, “This acquisition...

Innovative Entdeckung und Integro Zusammenführung

“Integro and Innovative Discovery’s services and solutions are highly complementary. Our...

Fünf große Lesevorgänge auf eDiscovery für September 2020

From cloud forensics and cyber defense to social media and surveys,...

Fünf große Lesevorgänge auf eDiscovery für August 2020

From predictive coding and artificial intelligence to antitrust investigations and malware,...

Fünf große Lesevorgänge auf eDiscovery für Juli 2020

From business confidence and operational metrics to data protection and privacy...

Fünf große Lesevorgänge auf eDiscovery für Juni 2020

From collection market size updates to cloud outsourcing guidelines, the June...