L’intelligenza artificiale può davvero aiutarci a parlare con gli animali? | Lingua

UN l’addestratore di delfini fa il segnale di “insieme” con le sue mani, seguito da “crea”. I due delfini addestrati scompaiono sott’acqua, si scambiano suoni e poi emergono, si girano sulla schiena e alzano la coda. Hanno escogitato un nuovo trucco tutto loro e l’hanno eseguito in tandem, proprio come richiesto. “Non prova che ci sia un linguaggio”, cube Aza Raskin. “Ma ha certamente molto senso che, se avessero accesso a un modo di comunicare ricco e simbolico, ciò renderebbe questo compito molto più semplice”.

Raskin è il co-fondatore e presidente dell’Earth Species Venture (ESP), un gruppo no-profit californiano con un’ambizione audace: decodificare la comunicazione non umana utilizzando una forma di intelligenza artificiale (AI) chiamata machine studying e rendere tutte le know-how pubblicamente disponibile, approfondendo così la nostra connessione con altre specie viventi e aiutando a proteggerle. Un album del 1970 di canzoni delle balene ha galvanizzato il movimento che ha portato al divieto della caccia commerciale alle balene. Cosa potrebbe generare un Google Translate per il regno animale?

L’organizzazione, fondata nel 2017 con l’aiuto di importanti donatori come il co-fondatore di LinkedIn Reid Hoffman, ha pubblicato il suo primo articolo scientifico lo scorso dicembre. L’obiettivo è sbloccare la comunicazione all’interno delle nostre vite. “Il wonderful a cui stiamo lavorando è: possiamo decodificare la comunicazione animale, scoprire un linguaggio non umano”, afferma Raskin. “Nel corso del tempo e altrettanto importante è che stiamo sviluppando una tecnologia che supporti i biologi e la conservazione ora”.

La comprensione delle vocalizzazioni degli animali è stata a lungo oggetto del fascino e dello studio umani. Vari primati emettono richiami di allarme che differiscono a seconda del predatore; i delfini si rivolgono a vicenda con fischietti caratteristici; e alcuni uccelli canori possono prendere elementi delle loro chiamate e riorganizzarli per comunicare messaggi diversi. Ma la maggior parte degli esperti evita di chiamarlo un linguaggio, poiché nessuna comunicazione animale soddisfa tutti i criteri.

Fino a poco tempo, la decodifica si basava principalmente su un’osservazione scrupolosa. Ma l’interesse è cresciuto nell’applicazione dell’apprendimento automatico per gestire l’enorme quantità di dati che ora possono essere raccolti dai moderni sensori di origine animale. “Le persone stanno iniziando a usarlo”, afferma Elodie Briefer, professore associato all’Università di Copenaghen che studia la comunicazione vocale nei mammiferi e negli uccelli. “Ma non capiamo ancora davvero quanto possiamo fare”.

Briefer ha co-sviluppato un algoritmo che analizza i grugniti di maiale per dire se l’animale sta vivendo un’emozione positiva o negativa. Un altro, chiamato DeepSqueak, giudica se i roditori sono in uno stato di stress in base alle loro chiamate ultrasoniche. Un’ulteriore iniziativa – Venture CETI (che sta per Cetacean Translation Initiative) – prevede di utilizzare l’apprendimento automatico per tradurre la comunicazione dei capodogli.

All’inizio di quest’anno, Elodie Briefer e colleghi hanno pubblicato uno studio sulle emozioni dei maiali basato sulle loro vocalizzazioni. Sono stati raccolti 7.414 suoni da 411 maiali in una varietà di scenari. Fotografia: Matt Cardy/Getty Photos

Eppure ESP afferma che il suo approccio è diverso, perché non si concentra sulla decodifica della comunicazione di una specie, ma di tutte. Mentre Raskin riconosce che ci sarà una maggiore probabilità di una comunicazione ricca e simbolica tra gli animali sociali – advert esempio primati, balene e delfini – l’obiettivo è sviluppare strumenti che potrebbero essere applicati all’intero regno animale. “Siamo agnostici rispetto alla specie”, cube Raskin. “Gli strumenti che sviluppiamo… possono funzionare in tutta la biologia, dai vermi alle balene”.


TL'”intuizione motivante” per ESP, afferma Raskin, è un lavoro che ha dimostrato che l’apprendimento automatico può essere utilizzato per tradurre tra lingue umane numerous, a volte distanti, senza la necessità di alcuna conoscenza preliminare.

Questo processo inizia con lo sviluppo di un algoritmo per rappresentare le parole in uno spazio fisico. In questa rappresentazione geometrica multidimensionale, la distanza e la direzione tra i punti (parole) descrivono come si relazionano significativamente tra loro (la loro relazione semantica). Advert esempio, “re” ha una relazione con “uomo” con la stessa distanza e direzione che “donna” ha con “regina”. (La mappatura non viene eseguita conoscendo il significato delle parole, ma osservando, advert esempio, la frequenza con cui si verificano l’una vicino all’altra.)

Successivamente si è notato che queste “forme” sono simili per lingue numerous. E poi, nel 2017, due gruppi di ricercatori che lavorano indipendentemente hanno trovato una tecnica che ha permesso di ottenere la traduzione allineando le forme. Per passare dall’inglese all’urdu, allinea le loro forme e trova il punto in urdu più vicino al punto della parola in inglese. “Puoi tradurre la maggior parte delle parole in modo decente”, cube Raskin.

L’aspirazione di ESP è quella di creare questo tipo di rappresentazioni della comunicazione animale – lavorando sia su singole specie che su molte specie contemporaneamente – e quindi esplorare domande come se vi sia una sovrapposizione con la forma umana universale. Non sappiamo come gli animali vivano il mondo, cube Raskin, ma ci sono emozioni, advert esempio dolore e gioia, sembra che alcuni condividano con noi e potrebbero benissimo comunicare con altri nella loro specie. “Non so quale sarà il più incredibile: le parti in cui le forme si sovrappongono e possiamo comunicare o tradurre direttamente, o le parti in cui non possiamo”.

due delfini in una piscina
I delfini usano clic, fischi e altri suoni per comunicare. Ma cosa stanno dicendo? Fotografia: ALesik/Getty Photos/iStockphoto

Aggiunge che gli animali non comunicano solo vocalmente. Le api, advert esempio, fanno sapere agli altri la posizione di un fiore tramite una “danza oscillante”. Sarà necessario tradurre anche attraverso numerous modalità di comunicazione.

L’obiettivo è “come andare sulla luna”, riconosce Raskin, ma l’thought non è nemmeno arrivarci tutto in una volta. Piuttosto, la tabella di marcia di ESP prevede la risoluzione di una serie di problemi minori necessari per realizzare il quadro più ampio. Questo dovrebbe vedere lo sviluppo di strumenti generali che possono aiutare i ricercatori che cercano di applicare l’IA per svelare i segreti delle specie allo studio.

Advert esempio, ESP ha recentemente pubblicato un articolo (e ne ha condiviso il codice) sul cosiddetto “problema dei cocktail celebration” nella comunicazione animale, in cui è difficile discernere quale individuo in un gruppo degli stessi animali stia vocalizzando in un ambiente sociale rumoroso .

“Per quanto ne sappiamo, nessuno ha fatto questo districare end-to-end [of animal sound] prima”, cube Raskin. Il modello basato sull’intelligenza artificiale sviluppato da ESP, che è stato provato su fischietti di delfini, suoni di tuba di macachi e vocalizzazioni di pipistrelli, ha funzionato meglio quando i richiami provenivano da individui su cui il modello period stato addestrato; ma con set di dati più grandi è stato in grado di districare miscele di richiami da animali non nella coorte di addestramento.

Un altro progetto prevede l’utilizzo dell’IA per generare nuovi richiami di animali, con le megattere come specie di prova. Le nuove chiamate, realizzate suddividendo le vocalizzazioni in microfonemi (unità di suono distinte della durata di un centesimo di secondo) e utilizzando un modello linguistico per “parlare” qualcosa di simile a una balena, possono quindi essere riprodotte agli animali per vedere come si comportano. rispondere. Se l’IA è in grado di identificare ciò che rende un cambiamento casuale rispetto a uno semanticamente significativo, ci avvicina a una comunicazione significativa, spiega Raskin. “Sta facendo in modo che l’IA parli la lingua, anche se non sappiamo ancora cosa significhi”.

un corvo hawaiano che usa un ramoscello per agganciare le larve da un ramo di un albero
I corvi hawaiani sono ben noti per il loro uso di strumenti, ma si ritiene che abbiano anche una serie di vocalizzazioni particolarmente complessa. Fotografia: Minden Photos/Alamy

Un ulteriore progetto mira a sviluppare un algoritmo che accerta quanti tipi di chiamata ha una specie a sua disposizione applicando l’apprendimento automatico auto-supervisionato, che non richiede alcuna etichettatura dei dati da parte di esperti umani per apprendere i modelli. In un primo banco di prova, estrarrà le registrazioni audio fatte da un workforce guidato da Christian Rutz, professore di biologia all’Università di St Andrews, per produrre un inventario del repertorio vocale del corvo hawaiano, una specie che, ha scoperto Rutz , ha la capacità di creare e utilizzare strumenti per il foraggiamento e si ritiene che abbia un insieme di vocalizzazioni significativamente più complesso rispetto advert altre specie di corvi.

Rutz è particolarmente entusiasta del valore di conservazione del progetto. Il corvo hawaiano è in pericolo di estinzione ed esiste solo in cattività, dove viene allevato per la reintroduzione in natura. Si spera che, effettuando registrazioni effettuate in tempi diversi, sia possibile risalire all’eventuale erosione del repertorio dei richiami della specie in cattività – potrebbero essere andati perduti specifici richiami di allarme, advert esempio – il che potrebbe avere conseguenze per la sua reintroduzione; story perdita potrebbe essere affrontata con un intervento. “Potrebbe produrre un cambiamento radicale nella nostra capacità di aiutare questi uccelli a tornare dall’orlo del baratro”, afferma Rutz, aggiungendo che rilevare e classificare manualmente i richiami sarebbe laborioso e soggetto a errori.

Nel frattempo, un altro progetto cerca di comprendere automaticamente i significati funzionali delle vocalizzazioni. È in corso con il laboratorio di Ari Friedlaender, professore di scienze oceaniche presso l’Università della California, Santa Cruz. Il laboratorio studia come i mammiferi marini selvatici, difficili da osservare direttamente, si comportano sott’acqua e gestisce uno dei più grandi programmi di etichettatura del mondo. Piccoli dispositivi elettronici di “biologging” collegati agli animali catturano la loro posizione, il tipo di movimento e persino ciò che vedono (i dispositivi possono incorporare videocamere). Il laboratorio ha anche dati provenienti da registratori di suoni posizionati strategicamente nell’oceano.

ESP mira advert applicare prima l’apprendimento automatico autocontrollato ai dati dei tag per valutare automaticamente cosa sta facendo un animale (advert esempio se si sta nutrendo, riposando, viaggiando o socializzando) e quindi aggiungere i dati audio per vedere se può essere assegnato un significato funzionale a chiamate legate a quel comportamento. (Gli esperimenti di riproduzione potrebbero quindi essere utilizzati per convalidare eventuali risultati, insieme a chiamate che sono state decodificate in precedenza.) Questa tecnica verrà inizialmente applicata ai dati delle megattere: il laboratorio ha etichettato diversi animali nello stesso gruppo, quindi è possibile vedere come segnali sono dati e ricevuti. Friedlaender cube che stava “colpendo il soffitto” in termini di ciò che gli strumenti attualmente disponibili potrebbero ricavare dai dati. “La nostra speranza è che il lavoro che ESP può fare fornisca nuove intuizioni”, afferma.


Bma non tutti sono così entusiasti del potere dell’IA per raggiungere obiettivi così grandiosi. Robert Seyfarth è un professore emerito di psicologia all’Università della Pennsylvania che da oltre 40 anni studia il comportamento sociale e la comunicazione vocale nei primati nel loro habitat naturale. Mentre crede che l’apprendimento automatico possa essere utile per alcuni problemi, come l’identificazione del repertorio vocale di un animale, ci sono altre aree, inclusa la scoperta del significato e della funzione delle vocalizzazioni, in cui è scettico che aggiungerà molto.

Il problema, spiega, è che mentre molti animali possono avere società sofisticate e complesse, hanno un repertorio di suoni molto più piccolo rispetto agli umani. Il risultato è che lo stesso identico suono può essere usato per significare cose numerous in contesti diversi ed è solo studiando il contesto: chi è la chiamata individuale, come sono relazionati con gli altri, dove cadono nella gerarchia, chi hanno interagito con – quel significato può sperare di essere stabilito. “Penso solo che questi metodi di intelligenza artificiale siano insufficienti”, afferma Seyfarth. “Devi andare là fuori e guardare gli animali.”

un'ape su un fiore di rosa canina
Una mappa della comunicazione animale dovrà incorporare fenomeni non vocali come le “danze oscillanti” delle api mellifere. Fotografia: Ben Birchall/PA

C’è anche un dubbio sul concetto: che la forma della comunicazione animale si sovrapporrà in modo significativo con la comunicazione umana. L’applicazione di analisi computerizzate al linguaggio umano, con cui siamo così intimamente familiari, è una cosa, cube Seyfarth. Ma può essere “abbastanza diverso” farlo con altre specie. “È un’thought eccitante, ma è un grande sforzo”, afferma Kevin Coffey, neuroscienziato dell’Università di Washington che ha co-creato l’algoritmo DeepSqueak.

Raskin riconosce che l’IA da sola potrebbe non essere sufficiente per sbloccare la comunicazione con altre specie. Ma si riferisce a una ricerca che ha mostrato che molte specie comunicano in modi “più complessi di quanto gli esseri umani abbiano mai immaginato”. Gli ostacoli sono stati la nostra capacità di raccogliere dati sufficienti e analizzarli su larga scala e la nostra percezione limitata. “Questi sono gli strumenti che ci consentono di toglierci gli occhiali umani e comprendere interi sistemi di comunicazione”, afferma.

Leave a Comment

A note to our visitors

This website has updated its privacy policy in compliance with changes to European Union data protection law, for all members globally. We’ve also updated our Privacy Policy to give you more information about your rights and responsibilities with respect to your privacy and personal information. Please read this to review the updates about which cookies we use and what information we collect on our site. By continuing to use this site, you are agreeing to our updated privacy policy.