Occhio, il futuro è già presente!

Occhio, il futuro è già presente!

Il CEO di Mojo VisionDrew Perkins, ha indossato per la prima volta il prototipo di lente a contatto in realtà aumentata.

Il futuro è molto più vicino di quanto la maggior parte delle persone pensi. Anzi, il futuro è già qui. L’ho visto. L’ho indossato. Funziona. È successo tutto nei laboratori di Mojo Vision a Saratoga, in California, il 23 giugno 2022, ed è stata la prima dimostrazione di una lente a contatto in realtà aumentata completa di funzioniCon mia grande gioia, ho scoperto che potevo interagire con una bussola per orientarmi, visualizzare immagini e utilizzare un teleprompter sullo schermo per leggere una citazione…” Queste sono le parole di Drew Perkins CEO della Mojo Vision startup americana che con il proprio team di ingegneri ha lavorato ai confini della fisica e della miniaturizzazione dell’elettronica riuscendo a realizzare uno schermo microLED (da 14.000 pixel per pollice e con un diametro inferiore a 0,5 mm e un pixel-pitch di 1,8 micron) delle dimensioni di un granello di sabbia.

Di recente è stato annunciato il prototipo avanzato di Mojo Lens, che integra una serie di nuove funzionalità hardware e tecnologie innovative integrate direttamente nella lente, tra cui un nuovo e avanzato display, il tracciamento oculare e le comunicazioni. L’ultimo ostacolo tecnico per indossare la lente è stato quello di garantire che i sistemi di alimentazione e di comunicazione radio funzionassero senza fili.

L’interfaccia delle Mojo Lens è basata sul tracciamento degli occhi, che consente agli utenti di accedere ai contenuti e selezionare gli elementi senza l’ausilio di controller manuali o gestuali, ma solo con il movimento naturale degli occhi.

Dopo aver completato i test preclinici e ridotto i potenziali rischi per la sicurezza, si è potuto procedere alla sperimentazione dell’utilizzo della lente in realtà aumentata. I prossimi passi della Mojo Vision sarà quello di perfezionare le sue lenti per sottoporli alla FDA (Federal Drug Administration) e ottenerne l’approvazione per il mercato.

Vuoi vedere come disegna un artista? Guarda il suo avatar

Vuoi vedere come disegna un artista? Guarda il suo avatar

Il pittore tedesco Albert Oehlen ha collaborato con specialisti della VR (VIVE Arts, the Serpentine e MacInnes Studio) per creare un’opera per Art Basel.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

“Basement Drawing” trasporta lo spettatore al centro della sua pratica artistica accompagnata dalla musica composta dallo stesso Oehlen e dal suo avatar altamente realistico. Il pubblico può osservare il processo creativo di Oehlen con il visore “VIVE Focus 3”.

Il pittore tedesco Albert Oehlen è un artista molto riservato, ma anche un artista che si esprime in molte forme e che fa della tecnologia un ulteriore strumento per la propria arte. Quando a Oehlen è stato chiesto se si sarebbe fatto riprendere nell’atto di dipingere, ha preferito farsi rappresentare da un avatar digitale all’interno del suo studio di Pasadena in California.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

“Ho pensato”, ha detto, “che sarebbe stato bello avere un avatar che potesse dipingere al posto mio e che mi avrebbe anche evitato di essere fotografato”. In “Basement Drawing” lo spettatore si trova faccia a faccia con un avatar iperrealistico di Oehlen. L’Oehlen virtuale – realizzato da MacInnes e dal suo team – avanza poi verso un tavolo e si siede per fare un disegno a penna e inchiostro, in sincronia con un brano composto dall’artista.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

L’Oehlen virtuale si trova per la prima volta in piedi in uno studio seminterrato dai soffitti bassi e ricco di dettagli. Lo sguardo della figura digitale è rilassato, interrogativo. L’avatar annuisce bruscamente con la testa a tempo di musica, mentre disegna come un automa, in quello che sembra un omaggio alla marionetta meccanica.

Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

Su un lato dello spazio un autoritratto si anima per mostrare l’artista che beve “cofftea”, una bevanda ibrida di tè e caffè ideata in collaborazione con Oehlen “che non ti farà mai più dormire”.

Proposito di questa esperienza Oehlen ha detto che “essere faccia a faccia con il proprio avatar non è bello. Ma lo preferisco piuttosto che essere faccia a faccia con gli spettatori”. “Credo che Albert sia rimasto un po’ scioccato nel vedere se stesso come un avatar 3D”, dice MacInnes. “Nella vita reale non riusciamo mai a sperimentare veramente noi stessi dall’esterno, fisicamente interattivi in 3D”. MacInnes e Oehlen stanno lavorando insieme su altri usi del suo avatar digitale. “Ho in programma di realizzare un’ulteriore esperienza virtuale”, dice Oehlen, ma sono “così estremi che non posso parlarne”.

                                                                                                                          Screenshot da “VIVE Arts | Behind the Scenes – Albert Oehlen: Basement Drawing, Art Basel in Basel 2022”: https://youtu.be/zi1kNIxkQ-Y

 

Mirko Compagno

Google sospende l’ingegnere che afferma che la sua IA ha un’anima

Google sospende l’ingegnere che afferma che la sua IA ha un’anima

Google ha sospeso un suo ingegnere – Blake Lemoine – dopo che quest’ultimo ha affermato che il Language Model for Dialogue Applications (LaMDA) dell’azienda avesse una coscienza e un’anima. LaMDA è un potente algoritmo di Google per la comprensione del linguaggio naturale, presentato durante l’evento Google I/O 2021.

Di fatto si tratta di un sistema in grado di rendere più naturali le conversazioni tra l’intelligenza artificiale (AI) e gli utenti. Google afferma che centinaia di suoi ricercatori e ingegneri hanno conversato con LaMDA, arrivando a conclusioni diverse da quelle di Lemoine.

Google ha dichiarato che tale sistema imita gli scambi di conversazione e può trattare diversi argomenti, ma certamente non ha coscienza.”Il nostro team – che comprende etici e tecnologi – ha esaminato le preoccupazioni di Blake in base ai nostri principi di A.I. e lo ha informato che le prove non supportano le sue affermazioni“, ha dichiarato Brian Gabriel, portavoce di Google, in un comunicato. “Alcuni nella più ampia comunità dell’A.I. stanno considerando la possibilità a lungo termine di un’A.I. senziente, ma non ha senso farlo antropomorfizzando gli attuali modelli di conversazione, che non sono senzienti”.

 

 

 

fonte: https://www.nytimes.com/2022/06/12/technology/google-chatbot-ai-blake-lemoine.html

 

 

CES 2020: Samsung Teases Prototype AR Glasses

CES 2020: Samsung Teases Prototype AR Glasses

Are augmented reality personal trainers the future of at-home exercise? 

Samsung is kicked-off the first day of CES 2020 with a bang this morning, offering attendees an in-depth look at a variety of cutting-edge products straight out of a science fiction novel, including a BB8-style robot assistant, as well as new improvements to their proprietary voice assistant, Bixby.

Among the many products developed as part of its “Age of Experience” product strategy, Samsung also used its time on stage to tease its own dedicated AR headset. The company demonstrated its AR technology on stage in front of a live audience using the companies GEMS (Gait Enhancing & Motivating System) technology, which uses an exoskeleton device to correct a user’s posture and track certain body metrics.

The demonstration involved an AR training session involving a digital personal trainer. According to Samsung, these AR glasses can be used to simulate personal gym sessions, mountain climbing, walking underwater, and a variety of other physically intensive activities from the comfort of home.

Of course, it goes without saying that the products shown are still very much in their developmental stage.

“Samsung will remain a hardware company, forever,” said Hyunsuk Kim, CEO of Samsung’s consumer electronics division. “It’s not about when we release the product, but it’s more crucial how much further we can evolve the technology. No other speaker in the world can control gadgets as much as Samsung can.”

Samsung’s Ballie / Image Credit: Samsung

In addition to new AR technology, the company also took the time to shine a light on the long-running Samsung Gear VR with an emotional video showing how the mobile headset is being used to help visually-impaired individuals connect with their families, friends, and loved ones.

With both Apple and Facebook currently in development of their own dedicated AR devices, it’s clear that companies are beginning to see the value in augmented reality headsets as a potential replacement for conventional smartphone technology.

With CES only just getting started, no doubt we’ll be seeing a lot more AR technology over the next couple of days.

Feature Image Credit: Samsung

 

 

 

 

 

Sources: https://vrscout.com/news/ces-2020-samsung-prototype-ar-glasses/

APOLLO 11 MOON LANDING AUGMENTED REALITY EXPERIENCE

THE SCIENCE BEHIND TIME’S NEW APOLLO 11 MOON LANDING AUGMENTED REALITY EXPERIENCE

TIME this week launched TIME Immersive, a new iPhone and Android app that we’ll use to deliver groundbreaking augmented reality and virtual reality experiences. First up: the TIME Moon Landing experience, the world’s most accurate 3D re-creation of the Apollo 11 mission, which took place 50 years ago this month. Users can watch an approximately five-minute AR simulation of the Apollo 11 landing, narrated by TIME’s Jeffrey Kluger and featuring original NASA audio from the mission, then explore the surface of the moon on their own.

What makes the TIME Moon Landing hyper-accurate? At the experience’s core lies incredibly precise data meticulously collected over the last 20 years by John Knoll, the chief creative officer and visual effects supervisor at Industrial Light and Magic, a top Hollywood special effects company founded by George Lucas.

“I’m old enough to remember seeing the Apollo 11 landing live as a kid,” says Knoll, who gave his data to TIME. “That really left a big impression on me. In the years that followed, I was always fascinated with the space program.”

Knoll began collecting Apollo 11 landing data after stumbling upon a transcript of radio calls between the spacecraft and mission control. Those transcripts, he says, underscored the harrowing few minutes just before the “Eagle” lander touched down on the lunar surface, when it was running dangerously low on fuel. That moment, says Knoll, was largely glossed over in the Apollo 11 documentaries of his youth. “In reading the timestamped transcripts, this is white-knuckle time,” he says.

Knoll’s commitment to accuracy came in part from his disappointment with some Hollywood directors who pay lip service to scientific precision but abandon it in favor of what they or the studios believe is better storytelling. “I was very committed to making the re-creation as technically accurate as I could make it, in getting everything right about the motion of the spacecraft, the lighting conditions, the lunar terrain, where individual rocks and craters were,” says Knoll. “And to figure out if there were clever or sneaky ways to extract data from unlikely sources.”

To that end, Knoll relied on a handful of data sources, including NASA telemetry graphs, footage from a descent camera on the lunar module (LEM), and data from the Lunar Reconnaissance Orbiter (LRO), a probe orbiting the moon that was launched in 2009. He made up for shortcomings in the data with advanced computer vision techniques, including one process whereby the altitude of moon surface features can be estimated based on how bright or dark they appear in photographs.

“When you look at a photograph of the moon, and you see all that light and shadow, what you’re seeing is the orientation of the surface relative to the sun,” says Knoll. “If a surface is brighter, it’s because it’s inclined more towards the illuminance, and if it’s darker, it’s because it’s inclined more away. If you start on one end of an image, and if a surface is lighter than the average then it’s inclined up, so you accumulate the altitude, and if it’s darker, it’s declined, and so you decrement the altitude. By doing that, you can integrate an approximation of the terrain.”

Knoll hopes that the experience helps people better understand and take pride in the complexity of the Apollo project.

“I’m a big champion of science education, and people really understanding what we achieved,” says Knoll. “Those Apollo missions were great and amazing, and especially in these very divisive times, everyone regardless of their political affiliation can look back with some pride and look back at the accomplishment.”

The TIME Moon Landing experience was co-produced by TIME, John Knoll, the Smithsonian’s National Air and Space Museum and Smithsonian’s Digitization Program Office, Trigger, RYOT, and the Yahoo News XR Program. It is available within the TIME Immersive app, which you can download for iPhone in Apple’s App Store, or for Android in the Google Play Store. Look out for more TIME Immersive projects in the near future.

 

 

 

 

 

credits: https://time.com/5626529/apollo-11-time-app/