Loading

Alison's New App is now available on iOS and Android! Download Now

Module 1: Let Machines Do il Lavoro

Study Reminders
Support
Text Version

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Building Bespoke ML Models
In questo argomento si terrà uno sguardo di alto livello sulle complessità che si stanno dietro a sviluppare modelli di machine learning beati ma come anche il servizio di machine learning gestito da piattaforma di AI Google fa sia più facile per gli sviluppatori di machine learning, gli scienziati dei dati e gli ingegneri di dati per portare i propri progetti di machine learning dall'ideazione alla produzione e alla distribuzione. In precedenza è stato introdotto all'idea che l'apprendimento automatico della lingua può dividerti in 3 aree in questo argomento si analizzerà il più complesso ma anche l'opzione più adattabile di quelle 3. Come punto di partenza permette di parlare un po' di TensorFlow. TensorFlow è una libreria ad alte prestazioni open source per il calcolo numerico non solo machine learning qualsiasi calcolo numerico in realtà le persone hanno utilizzato TensorFlow per tutti i tipi di GPU computing. Ad esempio è possibile utilizzare tensorflow per risolvere equazioni differenziali parziali il suo   molto utile nei domini, il fluido dinamica tensorflow come bibliotecario programmatore neumerico vi fa appello perché è possibile scrivere il proprio codice di calcolo in un linguaggio di alto livello come python e aver eseguito in modo molto veloce che conta su scala. Il modo in cui si lavora TensorFlow è che si crea un grafico aciclico diretto per rappresentare un dag per rappresentare il tuo calcolo indirizzato nella direzione di flusso aciclico significa che può 't' t che 't' si nutre di sé e esso non si fa cerchio nel grafico perché ci sono questi nodi e spigoli nello schematico quei nodi rappresentano operazioni matematiche come l'aggiunta, sottraendo e moltiplicando funzioni più complesse o l'input e l'output delle operazioni matematiche i bordi rappresentano o raggi di dati essenzialmente il risultato di computing l'entropia trasversale è oneplus 3 input a questa bias un'operazione nella l'output di un'operazione viene inviato insieme all'operazione di moltiplicazione Matrix o l'altro input al manuale hai bisogno di due input per moltiplicare le matrici insieme l'altro e mettere è la variabile o quella è un'attesa così dove il nome tensorflow proviene da in matematica come 3 o 5 è chiamato scalare e vettore è una schiera unidimensionale di numeri in fisica e ricordati ora è qualcosa che ha come magnitudo e direzione ma in informatica ci siamo arrivati a me una matrice unidimensionale 1D o alzare un bidimensionale si chiama dimensione matrice bene abbiamo appena chiamato matrice vettoriale scalare 3D tensor 3D tensor 4D tensor e così in gara è quindi una schiera n - dimensionale di dati o dati in tensorflow o a decine man mano che scorrono attraverso il tensorflow grafico è possibile costruire un tag e Python store in un modello di salvataggio nel ripristino di un programma c plus per le previsioni a bassa latenza è possibile utilizzare lo stesso codice temporale e l'esecuzione di entrambi su CPU e GPU questo fornisce linguaggi di portabilità della lingua e dell'hardware contiene più livelli astratti di astrazione vengono implementati in diverse piattaforme hardware che eseguono ml sul tuo dispositivo mobile nell'ultima versione di tensorflow ottimiche anche l'acceleratore lineare algebra 4xl un framework che è un compilatore più veloce per tutti i calcoli che qui sottoscrivi uml modelli di cose qui dovrebbero probabilmente sapere esiste probabilmente già Ti si è aggiudicato la t in faccia con direttamente sopra di quell' hardware lo spostamento di due più istruzioni è il motore di esecuzione per tensorflow scritto in c plus per le operazioni altamente efficienti in fase di registrazione come operazione di flusso generalmente data scientist e sdks o qualcosa sui ragazzi possiamo usare Python go center per accedere alle tue operazioni di tensorflow Io sarò onesto con te in dataset apis API vivo sul tuo own Elvis API tensorflow estrarre errori in dataset API friendly estrarre la libreria più vicina è amichevole e Strat the carers library islavare è semplicemente modello aveva e quanto grande vuoi essere in unità c'è qualche altro concetto per i modelli di immagine come quello che scegli e lavorare con questi diversi algoritmi al codice stesso o costruire sono gli strati è proprio come il blocco di stack dopo che il blocco dei dati parla della dimensione dei dati se hai un piccolo dataset e si adatta solo a pacchetti statistici di memoria o Python che spesso sono tre o 4 righe di codice e lungi lavoro visto nei data set di memoria questi pacchetti hanno vinto il lavoro in batch e poi allenarsi però bisogna anche distribuire la tua formazione su molte molte macchine la gente pensa alla formazione del guardiano semplice ma che ottenere una macchina singola più grande e più grande con tante GPU ma che non il caso che scalda è la risposta come un'altra scelta di commento che le persone prendono è semplice che i dati siano abbastanza piccoli che il ML utilizzi un hardwood se capita di avere l'efficacia di ml non utilizzando tutti i dati per l'apprendimento automatico per imparare dall'utilizzo di tutti quei dati e nel devisionare un piano che raccogliere 10 volte che eroga attualmente è spesso la differenza tra ml che non funziona in mL che appare magico alcuni degli altri grandi miglioramenti da ml accadde con gli interni umani entrano nel problema in mL che porti umani all'interno dei tuoi esperti sanno del Regno Unito al dataset sotto forma di perfezionamenti alle caratteristiche esistenti o l'aggiunta di nuove funzioni in un processo che la feature engineering hai anche bisogno di una scala di preelaborazione e queste due cose e un grande set di dati distribuito anche in Cloud per la scala che hai voluto suonarlo per l'utilizzo in produzione che le caratteristiche prestano cambia invece di pensare a quanto tempo prende il treno sui tuoi dati di allenamento quindi devi anche prendere informazioni su come può supportare le query di previsione Nova per secondo ups che hai bisogno di avere bisogno che la tua scuola sia in grado di scalare il codice di previsione come necessario per supportare l'utente pomodori tempestivi un tipo di domande per chiederti qui qual è il numero degli importati i dati che cambia il client isn nella lingua utilizzata per allenare bene il modello è possibile invocare il tensorflowepi da qualsiasi linguaggio di programmazione utilizzare le risorse del server cloud per scalare automaticamente molti il secondo di cui hai bisogno per quelle previsioni ma queste sono cose che devono essere gestite e posso essere una sfida se hai bisogno di scaldare rapidamente la sua soluzione abbiamo accennato all'ingegneria della funzionalità con pipeline per elaborare i tuoi dati di allenamento prima che addestrare la stessa preelaborazione domani potrebbe essere diverso dal tuo predittivo uno che utilizzi una piattaforma standard come AI aiuta a ridurre al minimo questi problemi è stato davvero parlato dei tuoi input di previsione spesso saranno sistematicamente diversi da quelli utilizzati per allenare il tuo modello con insulina nel cuore attacco con forse la media della colonna somma si è spostata o la varianza è cresciuta nel tempo questo è un fenomeno che noi chiamiamo allenamento servire skew nel rilevarlo richiede continuamente la loro raccolta in riesami in altre parole ti aiuta a gestire i servizi di formazione che tieni traccia dei passi di ingegneria per te oltre che alleate della versione il tuo modello nel tempo iPhone sarà distribuito a preelaborazione e allenare la tua mamma più volte e aiutarti a distribuire il tuo modello di treno al Cloud per le previsioni di previsione il più riuscito attraverso qualcosa come una semplice API di riposo e include tutte le la trasformazione preelaborazione e funzione che hai fatto al codice client può semplicemente fornire le variabili reali di input e ripartire e la previsione può anche distribuire il modello in base alla necessità di fornire un numero elevato di query al secondo fa le persone che vogliono fare previsioni con il tuo modello di allenamento con esecuzione di alta qualità in fase di formazione Ayr Tempo di formazione Ayr time ma una volta è relativamente economico il punto di una previsione modello ML per moltissime richieste in arrivo un diagramma che il film blu fornisce una panoramica di alto livello delle fasi nel flusso di lavoro ML caselle di pillola blu indicano dove la piattaforma fornisce servizi gestiti in apis per te grande dataset di dati formativi che include le app che hai lasciato l'etichetta una corretta macchina di risposta che è ciò che vuoi per il futuro e tutto l'altro giorno oggi hai il tuo dataset House of Lords che descrive le caratteristiche delle case in una determinata area incluse cose come quella di vendere il prezzo quando è stato venduto e così via hai ordinato i tuoi dati analizzando e capire il processo di inserimento dei dati per prepararlo al machine learning in questo passo di preelaborazione trasforma i dati nel formato che meglio si adatta alle esigenze del vostro modello già dispone di una biblioteche di elaborazione delle acque che possono utilizzare su un medicalmente senza piattaforma oltre a come lavorare una macchina per ottenere che i dati puliti pronti per l'apprendimento automatico che potrete sviluppare il vostro modello utilizzando in tutte le tecniche o dalle nuove operazioni e approcci potrete iniziare a imparare a creare il vostro modello lavorando attraverso la documentazione fornita da tensorflow e xgboost forniscono i servizi che avete bisogno di allenare e quindi valutare il vostro modello sul cloud quando si allunga il vostro modello che si alimenta di funzioni di input per i quali si conosce già il valore di che mirando di nuovo alla risposta storica che si chiama l'etichetta hai poi eseguito il modello per prevedere i valori per i tuoi dati di allenamento in modo che la tua mamma possa regolarlo in modo più accurato ai dati e predetto valore obiettivo più precisamente questo è l'intero apprendimento per il modello di apprendimento automatico che ti alimenta i dati che ti alimentano i valori previsti e che poi abituati a tecniche tipiche appropriate per modellare il successo di modello 2 è quanto bruci puoi quindi girare il modello cambiando il possibile poi girare il modello cambiando le operazioni con le impostazioni che si utilizzano il controllo per scopi formativi è ricordare parametri Hydra come il numero di passi di formazione per eseguire in allenamento questa tecnica è chiamata l'ottimizzazione dei parametri di iperparametro fornire strumenti per caricare il tuo treno sul cloud poi è possibile inviare una richiesta al modello di treno modello e piattaforma che prima devi salvare il tuo modello utilizzando gli strumenti forniti da un framework di machine learning serializzare nelle informazioni che rappresenta il tuo modello di treno in un file che puoi quindi semplicemente distribuire la produzione del cloud su gcp upload lo stesso modello su Google Cloud secchio di memoria in una risorsa modello di magazzino su piattaforma e si specifica il percorso di archiviazione cloud per indossare il tuo modello salvato si trova ci sono due modi per ottenere previsioni dai modelli di treni a volte chiamata produzione in produzione batch in entrambi i casi passate i dati di input al tuo modello di machine learning cloud hosting e puoi monitorare le previsioni su una piattaforma aerea di base in corso fornisce API per esaminare tutti i tuoi lavori in esecuzione in aggiunta vari strumenti gcp supportano il funzionamento di un modello distribuito come l'intera suite di strumenti all'interno stackdriver, piattaforma aerea fornisce varie piattaforme per la gestione delle versioni modello e modello tra cui un'API di riposo, la piattaforma G-Cloud AI, lo strumento della riga di comando e termina con la console gcp.