Il continuo sviluppo nei componenti hardware e nella definizione degli algoritmi per l'analisi delle immagini consente di concepire applicazioni eseguite direttamente a bordo dei satelliti. Tenuti in conto i forti vincoli su massa, volume, potenza e costi che caratterizzano le sempre più diffuse piccole piattaforme satellitari (cubesat, micro- e mini-satelliti) il progetto di ricerca si propone di analizzare la possibilità di determinare l'assetto mediante l'analisi delle immagini prodotte dalla camera principale di bordo (di cui molte piattaforme in orbita terrrestre sono dotate). In questo modo sarebbe possibile nelle missioni LEO più semplici risparmiare l'adozione di costosi e complessi sensori specifici, e in quelle più sofisticate avere comunque una soluzione di back-up nel caso non infrequente di failure dei sensori. La ricerca riguarda preliminarmente l'individuazione di un idoneo processo deep learning di analisi delle immagini mediante reti neurali con il riconoscimento di landmarks rispetto a una banca dati e la codifica di una procedura per la determinazione d'assetto a partire da un numero minimo di features (e quindi di direzioni, nota la posizione del punto di vista), con attenzione allo sforzo computazionale richiesto. Soprattutto, il progetto prevede la prototipazione del sottosistema mediante componenti COTS e la sua sperimentazione a bordo della piattaforma flottante strumentata già operativa presso il Laboratorio di Guida e Navigazione, con prove di determinazione d'assetto nel più semplice caso della rotazione di yaw. La sorgente di informazione darà fornita da immagini realistiche ottenute da bordo di piattaforme LEO proiettate su opportuni schermi intorno alal piattaforma, e il test consentirà di valutare i tempi caratteristici di un loop di controllo d'assetto per l'asservimento a un prefissato puntamento nadir.