Ciao,
sono Michele Bondanelli e questo è il trentottesimo numero di PensieriOutofBIM per gli amici OoB la newsletter che parla di tecnologie digitali nel mondo del restauro e della professione di architetto.
Buona lettura
Storie a puntini
Insomma questa settembre apple sembra un bel floppone!
Ma l’errore di Apple è quello di tenersi le cose interessanti per sè, o comunque lasciarle in secondissimo piano.
Faccio un passo indietro.
E’ stato presentato iPhone 16 in tutte le sue salse dall’agrodolce a quella di soia fino alla piccante.
Poco altro tanto glamur poco Jobs! Mannaggia a mè che sono vecchio e tarato sul “quando c’era lui la mela era più morsicata”.
Ma!
MA!
MAAAAAA!
Scava e scava nella rete qualcosa inizia ad emergere.
Dopo un laconico “il LiDAR è sempre quello dalla ver.12” sparato sul canale telegram Snapper convinto che i roumors invernali fossero stati tutti sacrificati sull’altare del business
ecccolo là……..
Pensieri (H)BIM
iPhone 16 Pro: le novità del LiDAR (*non confermate da Apple)
Con il lancio dell'iPhone 16 Pro, Apple ha apportato significativi miglioramenti (mai mai fidarsi dei miei commenti a caldo o forse no) che coinvolgono il sensore LiDAR.
Introdotto per la prima volta con l'iPhone 12 Pro, il LiDAR ha rivoluzionato il modo di acquisire dati in campo e ha migliorato notevolmente le prestazioni fotografiche, soprattutto in condizioni di scarsa illuminazione.
Ora, con l'iPhone 16 Pro, questa tecnologia raggiunge un nuovo livello ( da verificare concretamente), grazie a una serie di aggiornamenti che rendono il LiDAR ancora più preciso efficace, efficiente e versatile.
Vediamo insieme le principali novità.
Campo di vista (Fov) e “precisione” migliorati
Una delle novità più interessanti riguarda l'espansione del campo di rilevamento del LiDAR. In soldoni fino a che distanza “prende”!
Se nell'iPhone 12 Pro il sensore era limitato a una distanza di circa 5 metri, nell'iPhone 16 Pro il raggio d'azione è stato ampliato, consentendo al dispositivo di rilevare oggetti fino a una distanza di 10 metri.
Questo miglioramento si traduce in una maggiore capacità di mappatura degli spazi, utile non solo per le applicazioni di rilievo del costruito, ma anche per le foto ei video che richiedono un rilevamento preciso della profondità.
Densità di punti e risoluzione della scansione non sono ancora disponibili ne da Apple ne dagli “influencer di settore” ma ipotizzo che a 10 metri l’accuratezza possa aessere stimata tra i 2 ei 4 cm (se fosse più verso i 2 sarebbe molto vicina al sistema SLAM) mentre la densità dei punti pare e dico pare vicina a quella del FACE ID, insomma qualcosa in più dei precedenti.
Pare anche che Apple abbia introdotto algoritmi avanzati di riduzione del rumore (RANSAC? boh non si sa).
Efficienza energetica e velocità di scansione
Oltre all'aumento del campo visivo, Apple ha lavorato per migliorare l'efficienza energetica del sensore LiDAR, e aggiungo io “era ora altrimenti lo trovavamo in offerta del giovedì come barbeque al LIDLE, riducendo il consumo di batteria anche durante l'uso prolungato. Questo dovrebbe migliorare l’efficienza delle scansioni sopratutto per acquisizioni con timing prolungato anche se consiglio sempre di non realizzare dataset troppo lunghi ( vedi la maledetta teoria della propagazione degli errori).
Migliorata anche la tecnologia Time-of-Flight (ToF) che sta alla base del LiDAR dell'iPhone 16 Pro. Ora dovremmo essere in grado di eseguire scansioni più rapide e precise.
La riduzione del rumore del segnale e una velocità di acquisizione aumentata consentono al sensore di lavorare meglio in condizioni di scarsa illuminazione, garantendo una messa a fuoco più rapida e accurata. Vedremo.
A18 Pro e Neural Engine: la potenza dietro il LiDAR
Uno dei fattori chiave che ha permesso questi avanzamenti è il chip A18 Pro, che equipaggia l'iPhone 16 Pro. Grazie a una maggiore potenza di elaborazione e a un Neural Engine più performante, l'iPhone è in grado di gestire un volume di dati maggiore in tempo reale. Questo significa che il sensore LiDAR non solo rileva gli oggetti con maggiore precisione, ma può anche elaborare le informazioni in modo più veloce e intelligente.
Il machine learning gioca un ruolo cruciale in questo processo, permettendo al LiDAR di riconoscere oggetti e superfici con maggiore accuratezza. Questo migliora le applicazioni di scansione perchè viene migliorato l'autofocus durante le riprese video e fotografiche, garantendo una qualità dell'immagine superiore in ogni situazione.
Conclusione
Il LiDAR dell'iPhone 16 Pro rappresenta un passo avanti significativo rispetto ai modelli precedenti.
Ma ho promesso alla famiglia che non cambiavo telefono!
Ma l’iPhone lo possimao considerare come un telefono?
…..!
Come sempre se vuoi puoi segnalare altre risosrse o commentare sul canale telegram