Riparare i PC con la realtà aumentata

Riparare i PC con la realtà aumentata

Dell Technologies ha presentato una nuova applicazione di realtà aumentata (Dell AR Assistant) che guida gli utenti attraverso le procedure di manutenzione e riparazione di oltre 100 PC e server Dell in sette lingue diverse e con istruzioni passo-passo. Tutto ciò che serve è uno smartphone Android o iOS. L’app non richiede un login e non archivia o trasmette informazioni sul cliente. Lo sviluppo dell’applicazione è avvenuto durante i primi mesi della pandemia, quando i tecnici non potevano recarsi a casa delle persone.

Dell mette a disposizione online i manuali dei prodotti e le relative risorse, e lo fa da oltre un decennio. Sono inclusi i download di software, driver, BIOS, firmware, patch del sistema operativo e di sicurezza. Il Dell AR Assistant è un’estensione naturale dei manuali, in un formato facile da seguire e accessibile al cliente da qualsiasi luogo. Gli utenti dell’AR Assistant possono vedere i loro dispositivi e le modalità di riparazione grazie alla realtà aumentata e alle sovrapposizioni informative sulla macchina da riparare, sfruttando la fotocamera dello smartphone.

Tara Gale, Client Solutions Country Lead, Dell Technologies Ireland, ha dichiarato: “La riparabilità continua a essere una priorità per noi di Dell Technologies. Sappiamo che gli utenti vogliono avere un maggiore controllo sui loro dispositivi, anche per quanto riguarda le riparazioni. Da sempre sostenitrice della riparabilità, Dell ha cambiato le carte in tavola con un’applicazione di realtà aumentata per le riparazioni IT, il Dell AR Assistant, unica nel suo genere. Il nostro obiettivo è quello di consentire ai consumatori di riparare facilmente i dispositivi da soli, laddove ne siano in grado. In definitiva stiamo cercando di ridurre i tempi di riparazione per i problemi che possono essere risolti dagli stessi utenti, con un piccolo aiuto da parte di Dell“.

Microscopio digitale & Smartglasses per l’industria elettronica

Microscopio digitale & Smartglasses per l’industria elettronica

Un settore altamente innovativo come quello dell’ industria elettronica, può beneficiare enormemente della sinergia tra il microscopio digitale e gli smartglasses. Nel nostro progetto realizzato per la IMW abbiamo connesso i due device in modo tale che il tecnico possa vedere direttamente dove sta operando senza necessariamente alzare ogni volta lo sguardo verso il monitor. Questo ha comportato un forte riduzione del carico cognitivo da parte dell’operatore con la conseguente riduzione degli errori.

Mirko Compagno

Apple Brings Augmented Reality Outdoors with New Public Art Initiative

Apple Brings Augmented Reality Outdoors with New Public Art Initiative

Teaming up with the New Museum and six leading visual artists.

Apple’s customer community program, Today at Apple, is launching a new public art initiative entitled [AR]T. The creative effort aims to expand the capabilities of augmented reality using AR tools found within the tech giant’s devices (ex: iPod Touch). The company teamed up New York City’s New Museum to enlist seven diverse creators to make digitally-enhanced works — all of whom have little-to-no experience of using AR tools.

Participants include Chicago-based artist Nick Cave, Swedish animator Nathalie Djurberg and composer Hans Berg, multimedia artist Cao Fei, as well as conceptual artist Carsten Höller. A bulk of the AR artworks “live as a visual layer on the cityscape and are experienced via a walk with an iPhone in six major cities,” as described by Apple in an official announcement.

Accompanying the public art project is a new program called [AR]T Lab: AR Experiences with digital artist and teacher Sarah Rothberg who is offering free lessons on augmented reality software to beginners in all Apple Stores worldwide. “In this Lab, attendees get hands-on with whimsical objects and sounds created by Rothberg to learn how to code their own AR experiences using Swift Playgrounds,” said Apple.

Learn more about Today art Apple’s [AR]T program here. Elsewhere in art, NYC gallery owner Selenas Mountain recently launched a series of limited edition artist-designed beach towels.

 

 

 

 

 

 

credit: https://hypebeast.com/2019/7/apple-augmented-reality-art-walk-new-museum

HoloLens e Azure per l’ologramma che traduce

Dal palco dell’evento Inspire 2019 organizzato da Microsoft e in scena in questi giorni a Las Vegas, Julia White (Corporate Vice President di Azure) si è rivolta ai presenti in sala descrivendo in giapponese di una nuova tecnologia sviluppata. Julia White, però, non parla la lingua del Sol Levante. Lo ha fatto per lei il suo ologramma, un complesso e dettagliato modello tridimensionale che ne ha replicato fedelmente le fattezze, la voce, i movimenti e persino i vestiti.

HoloLens e Azure per l'ologramma che traduce

Un ologramma per tradurre ciò che diciamo

È il frutto dell’incontro tra la Mixed Reality del visore HoloLens di seconda generazione e gli algoritmi di intelligenza artificiale gestiti sui server cloud dell’infrastruttura Azure. Per il rendering del parlato è stata impiegata la sintesi vocale di un sistema text-to-speech basato su rete neurale. È bene precisare che la conversione da essere umano a ologramma non avviene in tempo reale, ma necessita di uno scan preventivo del corpo nonché della registrazione di quanto far pronunciare allo speaker virtuale. Detto questo, la resa visibile nella demo qui sotto risulta piuttosto convincente.

HoloLens 2, annunciato nei mesi scorsi in occasione del MWC 2019 di Barcellona, è al momento un’esclusiva dell’ambito business. Entro fine anno arriverà anche la Developer Edition, accessibile dagli sviluppatori allo stesso prezzo di 3.500 dollari (o 99 dollari al mese). L’intento di Microsoft è quello di spingere l’evoluzione della Mixed Reality per avere successo laddove la realtà virtuale e quella aumentata hanno parzialmente fallito, arrivando a offrire non solo concept o esercizi di stile, ma prodotti e servizi che possano risultare realmente utili sia per i professionisti sia nel segmento consumer.

 

 

 

 

 

credits: https://www.punto-informatico.it/hololens-azure-ologramma-traduce/

APOLLO 11 MOON LANDING AUGMENTED REALITY EXPERIENCE

THE SCIENCE BEHIND TIME’S NEW APOLLO 11 MOON LANDING AUGMENTED REALITY EXPERIENCE

TIME this week launched TIME Immersive, a new iPhone and Android app that we’ll use to deliver groundbreaking augmented reality and virtual reality experiences. First up: the TIME Moon Landing experience, the world’s most accurate 3D re-creation of the Apollo 11 mission, which took place 50 years ago this month. Users can watch an approximately five-minute AR simulation of the Apollo 11 landing, narrated by TIME’s Jeffrey Kluger and featuring original NASA audio from the mission, then explore the surface of the moon on their own.

What makes the TIME Moon Landing hyper-accurate? At the experience’s core lies incredibly precise data meticulously collected over the last 20 years by John Knoll, the chief creative officer and visual effects supervisor at Industrial Light and Magic, a top Hollywood special effects company founded by George Lucas.

“I’m old enough to remember seeing the Apollo 11 landing live as a kid,” says Knoll, who gave his data to TIME. “That really left a big impression on me. In the years that followed, I was always fascinated with the space program.”

Knoll began collecting Apollo 11 landing data after stumbling upon a transcript of radio calls between the spacecraft and mission control. Those transcripts, he says, underscored the harrowing few minutes just before the “Eagle” lander touched down on the lunar surface, when it was running dangerously low on fuel. That moment, says Knoll, was largely glossed over in the Apollo 11 documentaries of his youth. “In reading the timestamped transcripts, this is white-knuckle time,” he says.

Knoll’s commitment to accuracy came in part from his disappointment with some Hollywood directors who pay lip service to scientific precision but abandon it in favor of what they or the studios believe is better storytelling. “I was very committed to making the re-creation as technically accurate as I could make it, in getting everything right about the motion of the spacecraft, the lighting conditions, the lunar terrain, where individual rocks and craters were,” says Knoll. “And to figure out if there were clever or sneaky ways to extract data from unlikely sources.”

To that end, Knoll relied on a handful of data sources, including NASA telemetry graphs, footage from a descent camera on the lunar module (LEM), and data from the Lunar Reconnaissance Orbiter (LRO), a probe orbiting the moon that was launched in 2009. He made up for shortcomings in the data with advanced computer vision techniques, including one process whereby the altitude of moon surface features can be estimated based on how bright or dark they appear in photographs.

“When you look at a photograph of the moon, and you see all that light and shadow, what you’re seeing is the orientation of the surface relative to the sun,” says Knoll. “If a surface is brighter, it’s because it’s inclined more towards the illuminance, and if it’s darker, it’s because it’s inclined more away. If you start on one end of an image, and if a surface is lighter than the average then it’s inclined up, so you accumulate the altitude, and if it’s darker, it’s declined, and so you decrement the altitude. By doing that, you can integrate an approximation of the terrain.”

Knoll hopes that the experience helps people better understand and take pride in the complexity of the Apollo project.

“I’m a big champion of science education, and people really understanding what we achieved,” says Knoll. “Those Apollo missions were great and amazing, and especially in these very divisive times, everyone regardless of their political affiliation can look back with some pride and look back at the accomplishment.”

The TIME Moon Landing experience was co-produced by TIME, John Knoll, the Smithsonian’s National Air and Space Museum and Smithsonian’s Digitization Program Office, Trigger, RYOT, and the Yahoo News XR Program. It is available within the TIME Immersive app, which you can download for iPhone in Apple’s App Store, or for Android in the Google Play Store. Look out for more TIME Immersive projects in the near future.

 

 

 

 

 

credits: https://time.com/5626529/apollo-11-time-app/