La didascalia delle immagini con l'audio emersa come un compito impegnativo ma promettente nel campo del deep learning. Il presente lavoro propone un approccio innovativo per affrontare questo compito, integrando reti neurali convoluzionali (CNN) per l'estrazione delle caratteristiche delle immagini e reti neurali ricorrenti (RNN) per l'analisi audio sequenziale. In particolare, utilizziamo CNN pre-addestrate come VGG per estrarre le caratteristiche visive dalle immagini e impieghiamo rappresentazioni dello spettrogramma accoppiate con RNN come LSTM o GRU per elaborare gli input audio. Il modello proposto si basa non solo sul contenuto visivo, ma anche sugli spunti audio che lo accompagnano. Valutiamo le prestazioni del nostro modello su set di dati di riferimento e dimostriamo la sua efficacia nel generare didascalie coerenti e contestualmente rilevanti per le immagini con gli input audio corrispondenti. Inoltre, abbiamo condotto studi di tablatura per analizzare il contributo di ciascuna modalit alle prestazioni complessive delle didascalie. I nostri risultati mostrano che la fusione delle modalit visive e uditive migliora significativamente la qualit delle didascalie rispetto all'utilizzo di una delle due modalit in modo isolato.
ThriftBooks sells millions of used books at the lowest
everyday prices. We personally assess every book's quality and offer rare, out-of-print treasures. We
deliver the joy of reading in recyclable packaging with free standard shipping on US orders over $15.
ThriftBooks.com. Read more. Spend less.