Progettazione, sviluppo e ottimizzazione di sistemi intelligenti multi-oggetto
Riunione semestrale - Mese 30
12/11/2020
Università degli Studi di Sassari - Dipartimento di Chimica e Farmacia Intelligent System Design and Application (IDEA) Lab
http://cluster-prossimo.it http://idea.uniss.it
PROSSIMO
Agenda
- Project Management
- Avanzamento e risultati - Stato dei deliverable
- Giornate di formazione e trasferimento
- Scenari d’uso e attività correnti
- Discussione
Avanzamento
-WP1: Gestione e coordinamento attività -WP2: Casi d’uso e specifiche
-WP3: Sperimentazione e sviluppo
-WP4: Formazione, trasferimento e diffusione dei risultati
Avanzamento e risultati – WP1
4
A1.1: Attività di gestione e coordinamento
A1.2: Comunicazione e collaborazione tra i partecipanti
A1.3: Analisi delle esigenze delle aziende partecipanti
Avanzamento e risultati – WP2
A2.1: Definizione dei
linguaggi di modellazione e specifica
A2.2: Specifica delle
architetture di riferimento A2.3: Specifica degli
scenari di riferimento
Avanzamento e risultati – WP3
A3.1: Sintesi e analisi automatica di CPS A3.2: Progettazione
integrata e ottimizzazione di (reti di) CPS
A3.3: Testing e
generazione automatica di test per CPS
A3.4: Integrazione e
sviluppo del dimostratore
Avanzamento e risultati - WP4
A4.1: Portale Web e social media
A4.2: Promozione e disseminazione
A4.3: Formazione
Deliverables
• Deliverable rilasciati:
• «Sintesi e analisi automatica di CPS (aggiornamento)» (A3.1, M30)
• «Progettazione integrata e ottimizzazione (aggiornamento)» (A3.2, M30)
• «Testing e generazione automatica di test (aggiornamento)» (A3.3, M30)
• Deliverable programmati entro M34: Integrazione e release del dimostratore
Giornate di formazione e trasferimento
•
Tematica DataIntroduzione al HW/SW co-design su FPGA Novembre 2019
Tecniche e strumenti software per l’analisi formale di CPS Dicembre 2019 Strumenti software per la modellazione di CPS Dicembre 2019 HW/SW co-design e monitoring (HW/SW) di sistemi Febbraio 2020
Internet of Things (IoT) design Marzo 2020
Cyber-security nei sistemi interconnessi Giugno 2020
Video sorveglianza e biometrie Luglio 2020
Brevetti e proprietà intelletuale Ottobre 2020
Attività correnti e future
Scenari d’uso
Scenari d’uso
Monitoraggio di ambienti con sistemi alimentati ad
energia solare Monitoraggio di ambienti domestici con sistemi
autonomi mobili di rilevazione
Videosorveglianza multicamera
intelligente
Scenario 1
Scenario 1 – Smart Camera
• Raspberry Pi 3 Model B+
• SoC: Broadcom BCM2837B0 Quad Core Cortex-A53 a 1.4 GHz, 32 kB L1 e 512 kB L2
• GPU: Broadcom VideoCore IV Dual Core a 400 MHz
• RAM: 1GB LPDDR2 a 900 MHz
• Arducam 5 Megapixels 1080p OV5647 Camera Module
• Lithium Battery Pack
• Battery capacity: 3800mAH Maximum
• Maximum output current:1.8A
• Output voltage:5.1V±0.1V
• PiJuice Pannello solare - 12Watt
MODULI SW:
• Monitoraggio luminosità con azione da comunicare
• Person detection
Scenario 1 – Turtlebot2 (Componenti)
• Kobuki mobile base
• Bumpers, cliff sensor, wheel drop sensor, gyro
• battery 2200 mAh
• Intel NUC Celeron N3050
• Celeron quad core 1.50 GHz
• RAM 4 GB
• Orbbec Astra (camera, 3D camera, fake laser scanner)
• Range: 0.6 – 8.0 m
• RGB Image Res. : 640 x 480 @30fps
• Depth Image Res.: 640 x 480 @30fps
• WidowX Arm
• 6 Dynamixel Actuators
• Arbotix-M Controller
• Portata media (dipendente dalla distanza:
500g)
Scenario 1 – Turtlebot2 (Moduli SW)
• Regolazione luminosità ambiente (azionamento leva)
• Navigazione autonoma (con riconoscimento ostacoli “on demand”)
• Riconoscimento identificativo pianta
• Riconoscimento anomalia pianta e generazione allarme
• Riconoscimento e raccolta oggetto (comunicazione camera/braccio)
• Ritorno alla stazione base per ricarica batteria (con riconoscimento ostacoli
nel percorso)
Turtlebot2 – Costruzione della mappa
Architettura generale
• Insieme di framework per lo sviluppo e la programmazione di robot che permette
• astrazione dell'hardware
• controllo dei dispositivi tramite driver
• comunicazione tra processi
• gestione delle applicazioni (package)
• Moduli software (c++ e python) integrati in ROS
• Versione usata: ROS 1 Kinetic
• Per tutti i componenti: registrazione valori dei sensori in DB sul server a fini di monitoraggio e manutenzione predittiva
Scenario 1 – Sperimentazione
Aspetti da sperimentare
• Verifica (model-based)
• Testing (generazione automatica)
• Adattività (per risparmio energetico rispetto alle risorse utilizzate)
• Accelerazione per image processing
• Verifica reti neurali
• Tecniche AI per monitoraggio e manutenzione predittiva
Tool utilizzati per la sperimentazione
• Hack
• MDC
• NeVer
• ReqT
• ReqV
Scenario 2
Scenario 2 – Turtlebot3
• Raspberry Pi 3 Model B+
• SoC: Broadcom BCM2837B0 Quad Core Cortex-A53 a 1.4 GHz, 32 kB L1 e 512 kB L2
• GPU: Broadcom VideoCore IV Dual Core a 400 MHz
• RAM: 1GB LPDDR2 a 900 MHz
• Raspberry Pi Camera Module v2.1
• 2 Dynamixel motors (wheels)
• OpenCR1.0 (with ARM Cortex-M7 controller)
• LDS-01 (HLS-LFCD2) 2D laser scanner
• Distance range: 120 – 3500 mm
• Distance accuracy: 5%
• Angular Range: 360°
• Angualr Resolution: 1°
• LIPO Battery 11.1V 1,800mAh
MODULI SW:
• Navigazione autonoma
Scenario 2 – NAO V6 (Componenti)
• Intel ATOM E3845@1.91GHz, 4GB RAM
• 2 front 2D cameras
• 25 Degrees of Freedom
• 2 Head
• 5 Arm (in each)
• 1 Pelvis
• 5 Leg (in each)
• 1 Hand (in each)
• Force sensitive resistors
• 2 Sonars (front)
• 4 contact sensors
• Speakers and Microphones
Scenario 2 – NAO V6 (Moduli SW)
• Person detection
• Speech recognition
• Object detection
• Navigazione autonoma
• Controllo arto superiore
• Turtlebot3 monitoring
Scenario 2 – Navigazione Turtlebot3
Scenario 2 – Esempio NAO
Scenario 2 – Sperimentazione
Aspetti da sperimentare
• Verifica (model-based)
• Testing (generazione automatica)
• Adattività (per risparmio energetico rispetto alle risorse utilizzate)
• Accelerazione per image processing
• Pianificazione coordinata
Tool utilizzati per la sperimentazione
• Hack
• MDC
• ReqT
• ReqV
Scenario 3 - Idea Base
Realizzare un sistema di video sorveglianza distribuito che utilizzi telecamere in grado di
elaborare immagini
Le telecamere sono in grado di comunicare
tra loro in modo da scambiarsi
informazioni
Un sistema distribuito
La struttura logica
Individuazione degli oggetti in foreground
Tracking degli oggetti
di dimensione sopra soglia
Se un oggetto esce dal campo visivo
viene inviato un segnale al dispositivo
appropriato che attiva l’elaborazione
Il sistema implementato
Estrazione caratteristiche oggetti individuati
Simulazione del dispositivo in attesa del segnale di attivazione
Individuazione oggetti in foreground In verde la zona di attenzione
Discussione
07/06/2019 30