Meta ha sviluppato un nuovo modello di intelligenza artificiale, chiamato “Segment Anything”, che consente di individuare oggetti in immagini e video anche se non fanno parte del set di addestramento. A differenza di altri modelli di AI, che richiedono un addestramento su materiale esistente per riconoscere gli oggetti, questo modello può individuare gli elementi selezionandoli tramite clic o testo libero. Ad esempio, è possibile digitare la parola “gatto” e l’AI evidenzierà tutti i felini in una data foto.
Oltre a questo, il modello può lavorare in tandem con altri modelli, consentendo la ricostruzione di un oggetto in 3D utilizzando un’immagine singola o prelevando le viste da un headset di realtà mista. In sostanza, Segment Anything può ridurre la necessità di ulteriori addestramenti AI.
Il modello e un dataset saranno scaricabili con una licenza non commerciale, pertanto non è possibile utilizzarli per scopi commerciali. L’obiettivo principale è quello di favorire la ricerca e l’accesso alla tecnologia. Al momento, Meta utilizza tecnologie simili per moderare contenuti vietati, suggerire post e taggare foto.
Gli sviluppatori riconoscono che il modello attuale ha alcune imperfezioni e potrebbe perdere alcuni dettagli, ma è un primo passo importante verso il miglioramento dell’AI nella visione artificiale. Non è destinato a essere utilizzato in situazioni in cui la rilevazione di oggetti veloce e accurata è fondamentale, ma può essere utile in situazioni in cui l’addestramento sui dati non è sufficiente o pratico.
Meta, nota in passato per le sue innovazioni nell’ambito dell’AI, si trova ora sotto la pressione di dimostrare che è in grado di competere con giganti del settore come Google e Microsoft. L’azienda sta già lavorando su “persone” generative AI per le sue app social e con invenzioni come Segment Anything dimostra di avere alcuni vantaggi competitivi importanti.