Kyberturvallisuuden haasteita tekoälyn kannalta: Tekoälyn elinkaari huomioidaan

Artificial Intelligence (AI) is influencing people’s everyday lives and playing a key role in digital transformation through its automated decision-making capabilities. The benefits of this emerging technology are significant, but so are the concerns. In this recent report, The EU Agency for Cybersecurity (ENISA) warns that AI may open new avenues in manipulation and attack methods, as well as new privacy and data protection challenges.

en flag
nl flag
et flag
fi flag
fr flag
de flag
pt flag
ru flag
es flag

Päätoimittajan huomautus: Euroopan unionin kyberturvallisuusvirasto ENISA on unionin virasto, joka pyrkii saavuttamaan korkean yhteisen kyberturvallisuuden tason kaikkialla Euroopassa. Joulukuussa 2020 ENISA julkaisi raportin AI Cybersecurity Challenges - Threat Landscape for Tekoälyn. Raportissa esitellään viraston aktiivinen kartoitus tekoälyn kyberturvallisuuden ekosysteemistä ja sen Uhkamaisemaa. Raportin osana esitetään tekoälyn yleinen elinkaaren viitemalli, joka mahdollistaa jäsennelyn ja suunnitelmallisen lähestymistavan tekoälyn eri puolien ymmärtämiseen. Tämä yleinen tekoälyn elinkaari voi olla hyödyllinen eDiscovery-ekosysteemin laillisille, yrityksille ja tietoturva-alan ammattilaisille, jotka alkavat pohtia kyberturvallisuutta ja sen suhdetta tekoälyyn.

AI Kyberturvallisuuden haasteita - Euroopan unionin kyberturvallisuusvirasto

Raportoi Ote tekoälyn elinkaaresta jaettuun käyttöoikeukseen*

Tekotekoälyn elinkaaren vaiheet

Kuva - AI Elinkaari Yleinen viitemalli

AI Elinkaari Yleinen viitemalli

Tässä osiossa esitetään lyhyt määritelmä tekoälyn elinkaaren kullekin vaiheelle ja kerrataan siihen liittyvät yksittäiset vaiheet (”Phase in a Nutshell”).

Liiketoiminnan tavoitteen määrittely

Ennen minkään tekoälysovelluksen/järjestelmän kehittämisen toteuttamista on tärkeää, että käyttäjäorganisaatio ymmärtää täysin tekoälysovelluksen/-järjestelmän liiketoimintaympäristön ja AI-sovelluksen liiketoimintatavoitteiden saavuttamiseksi tarvittavat tiedot sekä liiketoimintamittarit, joita käytetään arvioitaessa, missä määrin nämä tavoitteet on saavutettu.

Liiketoiminnan tavoitteen määrittelyvaihe pähkinänkuoressa: Tunnista tekoälysovelluksen/järjestelmän liiketoimintatarkoitus. Linkitä tarkoitus kysymykseen, johon on vastattava sovelluksessa/järjestelmässä käytettävä tekoälyn malli. Tunnista mallityyppi kysymyksen perusteella.

Tietojen nauttiminen

Data Ingestion on tekoälyn elinkaarivaihe, jossa tiedot saadaan useista lähteistä (raakadata voi olla minkä tahansa muotoisia strukturoituja tai jäsentämättömiä), jotta voidaan laatia moniulotteisia tietopisteitä, joita kutsutaan vektoreiksi, välittömään käyttöön tai tallennukseen, jotta niitä voidaan käyttää ja käyttää myöhemmin. Tietojen nauttiminen on minkä tahansa tekoälyn sovelluksen perusteella. Tietoja voidaan nauttia suoraan sen lähteistä reaaliaikaisesti, jatkuvalla tavalla, joka tunnetaan myös suoratoistona, tai tuomalla data-eriä, joissa dataa tuodaan määräajoin suurina makroerinä tai pieninä mikroerinä.

Eri nielemisen mekanismit voivat olla aktiivisia samanaikaisesti samassa sovelluksessa, synkronoimalla tai irrottamalla erän tuotannosta ja samojen tietovirtojen nauttimisella. Nielemisen komponentit voivat myös määrittää tietojen merkintää, eli onko nieleminen tehty metatietojen kanssa tai ilman (tietosanakirja tai tietotyyppien ontologia/taksonomia). Usein kulunvalvonta toimii tietojen nauttimisen aikana, jossa mallinnetaan tietojen yksityisyyden tilaa (henkilökohtaiset/muut kuin henkilökohtaiset tiedot), valitaan sopivia yksityisyyden säilyttämistekniikoita ja otetaan huomioon saavutettavissa oleva kompromissi yksityisyyden suojan vaikutuksen ja analyyttisen tarkkuuden välillä. Kaikissa tapauksissa on varmistettava sovellettavan EU:n yksityisyyttä ja tietosuojaa koskevan lainsäädännön noudattaminen.

Tietojen yksityisyyden statusta käytetään AI Application Service Level Agreement (SLA) määrittelemään sovellettavan EU:n tietosuojaa ja tietosuojaa koskevan lainsäädännön mukaisesti, mukaan lukien muun muassa mahdollisuus tarkastaa tai auditoida toimivaltaisia sääntelyviranomaisia (kuten tietosuojaa) Viranomaiset). On tärkeää huomata, että tietojen nauttimisen yhteydessä voi syntyä tietohallinnon ristiriita. Toisaalta sen omistajat lokeroivat tietoja, jotta varmistetaan kulunvalvonta ja yksityisyyden suoja. Toisaalta ne on integroitava analytiikan mahdollistamiseksi. Usein eri käytäntöjä ja käytäntösääntöjä sovelletaan samaan luokkaan kuuluviin kohtiin. Multimediatietolähteiden osalta käyttöprotokollat saattavat jopa noudattaa DRM (Digital Right Management) -lähestymistapaa, jossa pidosta on ensin neuvoteltava käyttöoikeuspalvelimien kanssa. Tekoälyn sovellussuunnittelijan vastuulla on varmistaa, että nauttiminen tapahtuu noudattaen tietojen tarjoajien tiedonkäyttöä koskevia käytäntöjä sekä sovellettavaa EU:n tietosuojaa ja tietosuojaa koskevaa oikeudellista kehystä.

Tiedonkeruu/Nieleminen vaihe pähkinänkuoressa: Tunnista kerättävät syöttötiedot (dynaamiset) ja vastaavat kontekstin metatiedot. Järjestä nauttiminen tekoälyn sovellusvaatimusten mukaisesti, tuomalla tietoja virralla, erä- tai monimodaalisella tavalla.

Tietojen etsintä

Data Exploration on vaihe, jossa oivalluksia aletaan ottaa nautitusta datasta. Vaikka se voidaan ohittaa joissakin tekoälysovelluksissa, joissa tiedot on hyvin ymmärretty, se on yleensä hyvin aikaa vievä vaihe tekoälyn elinkaaren. Tässä vaiheessa on tärkeää ymmärtää kerättyjen tietojen tyyppi. Eri mahdolliset tietotyypit on erotettava toisistaan keskeisesti, ja numeerinen ja kategorinen ovat näkyvimpiä luokkia multimediatietojen (esim. kuva, ääni, video jne.) ohella. Numeerinen data sopii piirtämiseen ja mahdollistaa kuvailevien tilastojen laskemisen ja sen tarkistamisen, sopivatko tiedot yksinkertaisiin parametrisiin jakaumiin, kuten Gaussin. Puuttuvat data-arvot voidaan havaita ja käsitellä myös etsintävaiheessa. Kategoriset muuttujat ovat sellaisia, joilla on kaksi tai useampia luokkia mutta joilla ei ole luontaista järjestystä. Jos muuttujalla on selkeä tilaus, sitä pidetään ordinaalisena muuttujana.

Tietojen validointi/Etsintä pähkinänkuoressa: Tarkista, sopivatko tiedot tunnettuun tilastojakaumaan joko komponentteittain (mono-variaattijakaumat) vai vektoreina (monivariaattijakauma). Arvioi vastaavat tilastollisia parametreja.

Tietojen Esikäsittely

Tietojen esikäsittelyvaiheessa käytetään tekniikoita tietojen puhdistamiseen, integrointiin ja muuntamiseen. Prosessin tavoitteena on parantaa tietojen laatua, joka parantaa tekoälyn koko järjestelmän suorituskykyä ja tehokkuutta säästämällä aikaa analyyttisten mallien koulutusvaiheessa ja edistämällä tulosten parempaa laatua. Erityisesti termi tietojen puhdistus merkitsee tekniikoita epäjohdonmukaisuuksien korjaamiseksi, melun poistamiseksi ja anonymisia/pseudonymisoimiseksi.

Tietojen integrointi kokoaa yhteen useista lähteistä tulevia tietoja, kun taas datan muuntaminen valmistelee dataa analyyttisen mallin syöttämiseen, tyypillisesti koodaamalla se numeeriseen muotoon. Tyypillinen koodaus on yksi kuuma koodaus, jota käytetään esittämään kategorisia muuttujia binäärivektoreina. Tämä koodaus edellyttää ensin, että kategoriset arvot on kartoitettava kokonaislukuarvoihin. Sitten jokainen kokonaislukuarvo esitetään binäärivektorina, joka on kaikki nolla-arvot paitsi kokonaisluvun sijainti, joka on merkitty 1.

Kun se on muunnettu numeroiksi, tietoihin voidaan kohdistaa muita muunnostyyppejä: uudelleen skaalaus, standardointi, normalisointi ja merkinnät. Tämän prosessin lopussa saadaan numeerinen tietojoukko, joka on perusta AI-mallin koulutukselle, testaukselle ja arvioinneille.

Koska riittävän suuri aineisto on yksi keskeisistä menestystekijöistä, kun mallia harjoitellaan oikein, on tavallista soveltaa erilaisia tiedonlisäystekniikoita liian pieniin koulutustietoaineistoihin. Esimerkiksi koulutusaineistoon on tavallista sisällyttää erilaisia skaalattuja tai pyöritettyjä kuvien versioita, jotka olivat jo kyseisessä aineistossa. Toinen esimerkki datan lisäystekniikasta, jota voidaan käyttää tekstin käsittelyssä, on sanan korvaaminen sen synonyymillä. Jopa niissä tapauksissa, joissa koulutusaineisto on riittävän suuri, datan lisäystekniikat voivat parantaa lopullista koulutettua mallia. Tietoja voidaan myös lisätä, jotta voidaan lisätä niiden määrää ja kattamien skenaarioiden moninaisuutta. Tiedonlisäys koostuu yleensä muunnoksista, joiden tiedetään olevan merkintöjä säilyttäviä, ts. mallin ei pitäisi muuttaa tuotoaan (eli ennustetta), kun se esitetään muunnetuilla tietokohteilla. Datan lisäys voi parantaa mallin suorituskykyä ja erityisesti sen kestävyyttä hyvänlaatuisiin häiriöihin. Yksi tehtävä, jossa tietojen lisäystä käytetään oletusarvoisesti, on kuvan luokittelu, jossa tietoja voidaan lisätä esimerkiksi käyttämällä käännöksiä, kiertoja ja sumennussuodattimia.

Tietojen esikäsittely pähkinänkuoressa: Muunna nautitut tiedot metriseen (numeeriseen) muotoon, integroi tiedot eri lähteistä, käsittele puuttuva/nolla-arvot interpoloimalla, tiivistää tietojen harvuuden vähentämiseksi, kohinaa, suodattimen poikkeavuuksia, muuttaa esitysväliä, anonymize/pseudonymisoi tiedot, lisäystiedot.

Ominaisuuden valinta

Feature Selection (yleensä feature engineering) on vaihe, jossa kunkin datavektorin säveltävien komponenttien tai ominaisuuksien (kutsutaan myös mitoiksi) määrää pienennetään, tunnistamalla komponentit, joiden uskotaan olevan AI-mallin kannalta mielekkäimpiä. Tuloksena on pelkistetty aineisto, sillä jokaisessa datavektorissa on vähemmän komponentteja kuin ennen. Laskennallisen kustannusvähennyksen lisäksi ominaisuusvalinta voi tuoda tarkempia malleja.

Lisäksi alempiulotteisen datan päälle rakennetut mallit ovat ymmärrettävämpiä ja selitettävämpiä. Tämä vaihe voidaan upottaa myös mallin rakennusvaiheeseen (esimerkiksi kuva- tai puhetietoja käsiteltäessä), josta keskustellaan seuraavassa osassa.

Ominaisuuden valinta pähkinänkuoressa: Tunnista tietojoukon mitat, jotka muodostavat yleisen parametrin, esimerkiksi tarrojen yleisen varianssin. Projektitiedot asetetaan pitkin näitä ulottuvuuksia, hyläten muut.

Mallinvalinta/Rakennus

Tämä vaihe suorittaa parhaan AI-mallin tai algoritmin valinta/rakentamisen tietojen analysoimiseksi. Se on vaikea tehtävä, johon usein kohdistuu kokeilu ja erehdys. Liiketoimintatavoitteen ja käytettävissä olevien tietojen tyypin perusteella voidaan käyttää erilaisia tekoälyn tekniikoita. Kolme yleisesti määriteltyä pääluokkaa ovat ohjattu oppiminen, ohjaamaton oppiminen ja vahvistavan oppimisen mallit. Valvotut tekniikat käsittelevät merkittyjä tietoja: tekoälyn mallia käytetään oppimaan kartoitus syöttöesimerkkien ja kohdetuotoksen välillä.

Valvotut mallit voidaan suunnitella luokittelijoiksi, joiden tavoitteena on ennustaa luokan merkki, ja Regressorit, joiden tavoitteena on ennustaa tuloista numeerinen arvofunktio. Tässä joitakin yleisiä algoritmeja ovat Support Vector Machines, Naïve Bayes, Hidden Markov Model, Bayesian verkot, ja Neural Networks.

Valvomattomat tekniikat käyttävät merkitsemättömiä koulutustietoja kuvaamaan ja poimimaan suhteita siitä joko sen järjestämiseksi klustereiksi, korostamaan tiedonsyöttötilan välistä yhteyttä, tiivistämään tietojen jakelun ja vähentämään datan ulottuvuutta (tätä aihetta käsiteltiin jo alustavana vaihe tietojen valmisteluun ominaisuuden valintaa koskevassa osassa). Vahvistus oppiminen kartoittaa tilanteita toimia, oppimisen käyttäytymistä, joka maksimoi halutun palkitsemistoiminnon.

Vaikka koulutustietojen tyyppi, joka on merkitty tai ei, on avainasemassa käytettävän ja valitun tekniikan tyypin kannalta, malleja voidaan myös rakentaa tyhjästä (vaikka tämä on melko epätodennäköistä), kun datan tutkija suunnittelee ja koodaa mallin luontaisilla ohjelmistotekniikoilla; tai rakentaa mallia yhdistämällä menetelmien koostumus. On tärkeää huomata, että mallivalinta (eli dataan mukautetun mallin valitseminen) saattaa käynnistää syöttötietojen muuntamisen entisestään, koska eri tekoälyn mallit vaativat erilaisia syöttödatavektorien numeerisia koodauksia.

Yleisesti ottaen mallin valitseminen sisältää myös sen koulutusstrategian valitsemisen. Esimerkiksi ohjatun oppimisen yhteydessä koulutukseen kuuluu tietojenkäsittely (oppimisfunktio) mallin tuotoksen, kun se vastaanottaa jokaisen koulutusjoukon datan D syötteenä, ja D: n etiketin välinen ero. Tätä tulosta käytetään mallin muokkaamiseen erotuksen pienentämiseksi.

Monet virheiden minimointiin liittyvät koulutusalgoritmit ovat käytettävissä, useimmat niistä perustuvat kaltevuuslaskeutumaan. Koulutusalgoritmeilla on omat hyperparametrinsa, mukaan lukien mallivirheen laskemiseen käytettävä funktio (esim. keskimääräinen neliövirhe) ja eräkoko, eli malliin syötettävien merkittyjen näytteiden määrä kerryttää virheen arvo, jota käytetään itse mallin mukauttamiseen.

Tekoälyn mallivalinta pähkinänkuoressa: Valitse sovellukseen sopiva tekoälyn malli. Koodata tiedonsyöttövektorit vastaamaan mallin ensisijaista syöttömuotoa.

Mallikoulutus

Valittuaan tekoälyn mallin, joka tämän viitemallin yhteydessä viittaa enimmäkseen koneoppimiseen (ML) -malliin, tekoälyn koulutusvaihe alkaa. Valitun ML-mallin on valvotun oppimisen yhteydessä käytävä läpi harjoitusvaihe, jossa datasta opitaan sisäisiä mallin parametreja, kuten painoja ja puolueellisuutta. Näin malli voi saada ymmärrystä käytetystä datasta ja siten pystyä analysoimaan niitä. Jälleen koulutukseen kuuluu tietojenkäsittely (funktio) ero mallin tuotoksen, kun se saa jokaisen koulutusjoukon tiedot D syötteenä, ja D: n etiketti. Tätä tulosta käytetään mallin muokkaamiseen johtuvan tuloksen ja halutun tuloksen välisen eron vähentämiseksi ja siten vähitellen johtaa tarkempiin, odotettuihin tuloksiin.

Koulutusvaihe syöttää ML-mallia syöttövektorien erillä ja käyttää valittua oppimistoimintoa mallin sisäisten parametrien (painot ja bias) mukauttamiseksi mallin tuotoksen ja tarrojen välisen eron mittaamiseen (esim. lineaarinen, nelikulmainen, lokihäviö). Usein käytettävissä oleva tietojoukko osioidaan tässä vaiheessa harjoitussarjaan, jota käytetään mallin parametrien määrittämiseen, ja testijoukkoon, johon kirjataan arviointikriteerit (esim. virhetaso) vain mallin suorituskyvyn arvioimiseksi harjoitussarjan ulkopuolella. Ristiinvalidointijärjestelmät osioivat satunnaisesti moninkertaisesti tiedot koulutukseen ja testausosaan kiinteästä koosta (esim. 80% ja 20% käytettävissä olevista tiedoista) ja toistavat sitten koulutus- ja validointivaiheet kussakin osiossa.

AI Mallikoulutus pähkinänkuoressa: Käytä valittua koulutusalgoritmia asianmukaisilla parametreilla, jotta valittua mallia voidaan muokata koulutustietojen mukaan. Vahvista mallikoulutus testisarjoilla ristiinvalidointistrategian mukaisesti.

Mallin viritys

Mallin viritys on yleensä päällekkäin mallikoulutuksen kanssa, koska viritys katsotaan yleensä harjoitusprosessin sisällä. Päätimme erottaa tekoälyn elinkaaren kaksi vaihetta korostaaksemme toiminnallisen toiminnan eroja, vaikka on todennäköisintä, että suurimmassa osassa tekoälyn järjestelmistä ne ovat molemmat osa koulutusprosessia.

Tietyt parametrit määrittelevät mallista korkean tason käsitteitä, kuten niiden oppimisfunktio tai modaliteetti, eikä niitä voi oppia syöttötiedoista. Nämä erityisparametrit, joita kutsutaan usein hyperparametreiksi, on määritettävä manuaalisesti, vaikka ne voidaan tietyissä olosuhteissa virittää automaattisesti etsimällä mallin parametrien tilaa. Tämä haku, jota kutsutaan hyperparametrien optimoinniksi, suoritetaan usein käyttämällä klassisia optimointitekniikoita, kuten Grid Search, mutta Random Search ja Bayesilainen optimointi voidaan käyttää. On tärkeää huomata, että Model Tuning -vaiheessa käytetään erityistä tietojoukkoa (jota kutsutaan usein validointisarjaksi), joka eroaa edellisissä vaiheissa käytetyistä koulutus- ja testaussarjoista. Arviointivaihetta voidaan harkita myös ulostulorajojen arvioimiseksi ja sen arvioimiseksi, miten malli käyttäytyisi ääriolosuhteissa, esimerkiksi käyttämällä vääriä/turvattomia tietojoukkoja. On tärkeää huomata, että säädettävien hyperparametrien lukumäärästä riippuen kaikkien mahdollisten yhdistelmien kokeilu ei ehkä ole mahdollista.

AI Model Tuning pähkinänkuoressa: Käytä mallin mukauttamista koulutetun tekoälyn mallin hyper-parametreihin käyttämällä validointitietoa käyttöönottotilanteen mukaan.

Siirto oppiminen

Tässä vaiheessa käyttäjäorganisaatio antaa valmiiksi koulutetun ja valmiiksi viritetyn tekoälyn mallin ja käyttää sitä jatkokoulutuksen lähtökohtana nopeamman ja paremman lähentymisen saavuttamiseksi. Näin on yleisesti, kun koulutusta varten on vain vähän dataa. On huomattava, että kaikki edellä kuvatut vaiheet (viritys, testaus jne.) koskevat myös siirtooppimista. Lisäksi koska monissa tapauksissa siirto-oppimista sovelletaan, siirto-oppimista voidaan harkita osana mallikoulutusvaihetta, kun otetaan huomioon, että siirtooppiminen toimii yleensä koulutusalgoritmin lähtökohtana. Laajemman soveltamisalan varmistamiseksi erotamme siirto-oppimisen tässä esitetyn tekoälyn elinkaaren erilliseen vaiheeseen.

Siirrä oppimista pähkinänkuoressa: Lähde valmiiksi koulutettu tekoälyn malli samassa sovellustoimialueessa ja käytä siihen lisäkoulutusta tarpeen mukaan tuotannon sisäisen tarkkuuden parantamiseksi.

Mallin käyttöönotto

Machine Learning -malli tuo tietoa organisaatiolle vasta, kun sen ennustukset tulevat loppukäyttäjien saataville. Käyttöönotto on prosessi, jossa otetaan koulutettu malli ja asetetaan käyttäjien saataville.

Mallin käyttöönotto pähkinänkuoressa: Luo mallin tuotannon sisäinen inkarnaatio ohjelmistona, laiteohjelmistona tai laitteistona. Ota mallin inkarnaatio käyttöön reunaan tai pilveen yhdistämällä tuotannon sisäiset tietovirrat.

Mallin ylläpito

Käyttöönoton jälkeen tekoälyn malleja on jatkuvasti seurattava ja ylläpidettävä, jotta voidaan käsitellä konseptimuutoksia ja mahdollisia konseptiajoja, joita voi syntyä niiden käytön aikana. Konseptin muutos tapahtuu, kun mallin (tai tuotoksen merkinnän) syötteen merkitys muuttuu esimerkiksi muutettujen määräysten vuoksi. Konseptiajelehtiminen tapahtuu, kun muutos ei ole raju vaan syntyy hitaasti. Drift johtuu usein anturin puristuksesta, eli hitaasta evoluutiosta ajan mittaan anturin resoluutiossa (pienin havaittava ero kahden arvon välillä) tai yleisen esitysvälin välillä. Suosittu strategia mallin ylläpidon hoitamiseksi on ikkunapohjainen uudelleenoppiminen, joka perustuu viimeaikaisiin datapisteisiin ML-mallin rakentamiseksi. Toinen käyttökelpoinen tekniikka tekoälyn ylläpidossa on takatestaus. Useimmiten käyttäjäorganisaatio tietää, mitä tekoälyn mallin käyttöönoton jälkimainingeissa tapahtui ja voi verrata mallin ennustamista todellisuuteen. Tämä korostaa konseptin muutoksia: jos taustalla oleva konsepti vaihtuu, organisaatiot näkevät suorituskyvyn heikkenevän. Toinen tapa havaita nämä konseptiajelehdet voi sisältää tilastollisesti AI-mallin koulutuksessa käytettävän syöttöaineiston kuvaamista, jotta tätä koulutusaineistoa voidaan verrata nykyisiin syöttötietoihin tilastollisten ominaisuuksien osalta. Merkittävät erot tietoaineistojen välillä voivat olla osoitus mahdollisista konseptiajelehtimista, jotka saattavat edellyttää uudelleenoppimisprosessin suorittamista jo ennen kuin järjestelmän tuotos vaikuttaa merkittävästi. Tällä tavoin uudelleenkoulutus/uudelleenoppimisprosessit, jotka voivat olla aikaa ja resursseja vieviä, voidaan suorittaa vain silloin, kun sitä vaaditaan määräajoin, kuten edellä mainituissa ikkunapohjaisissa uudelleenoppimisstrategioissa. Mallien ylläpito heijastaa myös tarvetta seurata liiketoiminnan tavoitteita ja resursseja, jotka saattavat kehittyä ajan myötä ja vaikuttaa vastaavasti itse malliin.

Mallin ylläpito pähkinänkuoressa: Seuraa käyttöönotetun tekoälyn mallin ML-päättelyn tuloksia sekä mallin vastaanottamia syöttötietoja mahdollisten konseptimuutosten tai ajaumien havaitsemiseksi. Harjoittele mallia tarvittaessa uudelleen.

Liiketoiminnan ymmärtäminen

Tekoälyn mallin rakentaminen on usein kallista ja aina aikaa vievää. Se aiheuttaa useita liiketoimintariskejä, mukaan lukien se, että sillä ei ole mielekästä vaikutusta käyttäjäorganisaatioon, sekä puuttuvia tuotannon sisäisiä määräaikoja valmistumisen jälkeen. Yritysymmärrys on vaihe, jossa tekoälyn malleja käyttöön ottavat yritykset saavat oivallusta tekoälyn vaikutuksesta liiketoimintaansa ja pyrkivät maksimoimaan onnistumisen todennäköisyyden.

Liiketoiminnan ymmärtäminen pähkinänkuoressa: Arvioi käyttöön otetun tekoälyn mallin arvoehdotus. Arvioi (ennen käyttöönottoa) ja tarkista (käyttöönoton jälkeen) sen liiketoiminnan vaikutus.

Tekoälyn kyberturvallisuuden haasteet*

Lue täydellinen raportti (PDF)

ENISA-raportti — AI kyberturvallisuuden haasteita

Lue alkuperäinen tiedonanto.

*Jaettu luvalla Creative Commons — Nimeä 4.0 Kansainvälinen (CC BY 4.0) — lisenssillä.

Lisä lukeminen

Huiman Kustannukset? Tietomurron taloustiede huomioon

Irlantilaisten onnea? Tietosuojakomissio of Ireland julkaisee vuosikertomuksen

Lähde: Complex Discover

SPAC-hyökkäys? Cellebrite liikkuu kohti julkiseksi yhtiöksi tulemista

According to Adam Clammer, Chief Executive Officer of TWC Tech Holdings,...

Cobra oikeudelliset ratkaisut saavat investointeja Blue Sage Capitalilta

According to Eric Weiner, Partner at Blue Sage, “We are excited...

eDiscovery Fuusiot, yritysostot ja sijoitukset Q1 2021

From Relativity and Reveal to Compliance (System One) and Veristar, the...

Kyberriski ja palkinto? Kroll hankkii Redscanin

According to Redscan CEO, Mike Fenton, “Merging Redscan’s innovative culture and...

Uusi aikakausi eDiscoveryssa? Kehystys markkinoiden kasvu kuuden aikakausien linssin läpi

There are many excellent resources for considering chronological and historiographical approaches...

An eDiscovery Market Koko Mashup: 2020-2025 Maailmanlaajuiset ohjelmistot ja palvelut Yleiskatsaus

While the Compound Annual Growth Rate (CAGR) for worldwide eDiscovery software...

Perusviivan nollaaminen? eDiscoveryn markkinakoon mukautukset vuodelle 2020

An unanticipated pandemeconomic-driven retraction in eDiscovery spending during 2020 has resulted...

Kotiin vai pois? eDiscovery Malliston markkinoiden mitoitukseen ja hinnoitteluun liittyvät näkökohdat

One of the key home (onsite) or away (remote) decisions that...

Viisi suurta lukee eDiscovery maaliskuulle 2021

From data breach economics and vulnerabilities to private-equity investments and vendor...

Viisi suurta lukee eDiscovery helmikuussa 2021

From litigation trends and legal tech investing to facial recognition and...

Viisi suurta lukee eDiscovery tammikuu 2021

From eDiscovery business confidence and operational metrics to merger and acquisition...

Viisi suurta lukua eDiscovery joulukuu 2020

May the peace and joy of the holiday season be with...

Cobra oikeudelliset ratkaisut saavat investointeja Blue Sage Capitalilta

According to Eric Weiner, Partner at Blue Sage, “We are excited...

Korporaatio Z? ZDiscovery-alustan Zhyväksytyt julkaisut

According to the announcement, Monica Enand, Zapproved Founder and CEO, shared,...

Pää pilvissä? CloudNine Review Updates

According to Tony Caputo, CEO of CloudNine, “CloudNine is 100% dedicated...

Kaikki yhden ja yksi kaikkien puolesta? Epiq käynnistää yhtenäisen digitaalisen asiakaskokemuksen

According to the announcement, Epiq Access is available globally and provides...

Lämmittävä optimismi? Kevään 2021 eDiscoveryn yritysten luottamuskysely

The eDiscovery Business Confidence Survey is a nonscientific quarterly survey designed...

Kylmä sää saalis? Ennakoiva koodaustekniikat ja -protokollat -kysely — kevään 2021 tulokset

The Predictive Coding Technologies and Protocols Survey is a non-scientific semi-annual...

Tuletko ulos metsästä? 18 huomautusta eDiscovery Business Luottamus talvella 2021

In the winter of 2021, 85.0% of eDiscovery Business Confidence Survey...

eDiscovery-liiketoiminnan suorituskykyyn vaikuttavat ongelmat: Talvi 2021 -yleiskatsaus

In the winter of 2021, 43.3% of respondents viewed budgetary constraints...