Google tilbyder gratis metadatasæt med få-shot dyb læring AI og maskinindlæringsalgoritmer til hurtig og effektiv billedklassificering i TensorFlow og PyTorch
Google har annonceret tilgængeligheden af flere datasæt bestående af forskellige, men begrænsede naturlige billeder. Søge giganten er overbevist om, at de offentligt tilgængelige data vil køre tempoet i maskinindlæring og kunstig intelligens og samtidig reducere den tid, det tager at træne AI-modellerne på en minimal mængde data. Google kalder det nye initiativ 'Gratis metadatasæt', der hjælper AI-modeller med at 'lære' om færre data. 'Few-Shot AI' fra virksomheden er optimeret for at sikre, at AI lærer nye klasser fra kun få repræsentative billeder.
Forståelse for behovet for hurtigt at træne AI- og Machine Learning-modeller med færre datasæt, har Google lanceret 'Meta-datasæt', en lille samling billeder, der skal hjælpe med at reducere mængden af data, der er nødvendige for at forbedre nøjagtigheden af algoritmer. Virksomheden hævder, at AI- og ML-modellerne ved hjælp af få-shot-billedklassificeringsteknikker får den samme indsigt fra meget færre repræsentative billeder.
Google AI annoncerer metadatasæt: Et datasæt af datasæt til få-shot læring:
Deep Learning for AI og Machine Learning er vokset eksponentielt i nogen tid. Imidlertid er kernekravet tilgængeligheden af data af høj kvalitet og det også i store mængder. De store mængder manuelt kommenterede træningsdata er ofte vanskelige at skaffe og kan undertiden også være upålidelige. Forståelse for risiciene ved store datasæt har Google annonceret tilgængeligheden af en samling metadatasæt.
Gennem “Meta-datasæt: Et datasæt af datasæt til at lære at lære af få eksempler” (præsenteret på ICLR 2020) har Google foreslået et stort og forskelligt benchmark til måling af kompetencen i forskellige billedklassificeringsmodeller i et realistisk og udfordrende par -billede indstilling, der tilbyder en ramme, hvor man kan undersøge flere vigtige aspekter af klassificering med få skud. I det væsentlige tilbyder Google 10 offentligt tilgængelige og gratis at bruge datasæt med naturlige billeder. Disse datasæt består af ImageNet, CUB-200-2011, Fungi, håndskrevne tegn og doodles. Koden er offentlig og inkluderer en notesbog, der viser, hvordan Meta-datasæt kan bruges i TensorFlow og PyTorch.
Few-shot-klassifikation går ud over standarduddannelses- og dyb læringsmodeller. Det tager generalisering til helt nye klasser på testtidspunktet. Med andre ord blev de billeder, der blev brugt under testningen, ikke set under træning. I en klassificering med få skud indeholder træningssættet klasser, der er helt adskilt fra dem, der vises på testtidspunktet. Hver testopgave indeholder en support sætaf nogle få mærkede billeder, hvorfra modellen kan lære om de nye klasser og en sammenhæng forespørgselssætaf eksempler, som modellen derefter bliver bedt om at klassificere.
Et metadatasæt er en stor komponent, hvori model studerer generalisering til helt nye datasæt, hvorfra der ikke blev set billeder af nogen klasse under træning. Dette er ud over den hårde generaliseringsudfordring for nye klasser, der er forbundet med læringsopsætningen med få skud.
Hvordan hjælper metadatasæt med dyb læring til AI- og maskinindlæringsmodeller?
Meta-datasæt repræsenterer den største skala organiserede benchmark for krydsdatasæt, få-shot billedklassificering til dato. Det introducerer også en samplingsalgoritme til generering af opgaver med forskellige karakteristika og vanskeligheder ved at variere antallet af klasser i hver opgave, antallet af tilgængelige eksempler pr. Klasse, indføre klasse ubalancer og for nogle datasæt at variere graden af lighed mellem klasser for hver opgave.
Meta-datasæt introducerer nye udfordringer for en klassificering med få skud. Googles forskning er stadig foreløbig, og der er meget grund til at dække. Søgekæmpen har imidlertid hævdet, at forskere oplever succes. Nogle af de bemærkelsesværdige eksempler inkluderer brug af smart designet task condition, mere sofistikeret hyperparameter tuning, en 'meta-baseline', der kombinerer fordelene ved præ-træning og meta-læring, og endelig ved hjælp af funktionsvalg til at specialisere en universel repræsentation for hver opgave .