Realities in Transition

“When is AR going to be our default reality?”

During the past decade AR has been going through a transition from niche domain to a mass audience phenomenon. What used to be a lab only experience came into the hand of the public in 2009 with the first AR app on mobile phones. For believers in AR, looking through their screens at a prototype of our future world, it meant that from that moment on anything could be created anywhere by anyone.

Over the years the quality of the AR experiences has evolved radically. We now have better visuals and the tracking is more stable and reliable. For many domains the technology has finally proven to be truly useful. Still, despite the numerous areas and occasions we find ourselves using AR, it’s not yet playing a major role in our life. But that final step will follow soon. With wearables devices on the horizon, we’re about to enter a new era. The AR enhanced world might become our default reality.

Who will define what’s the default, when we live in a semi-digital world? Will Mark Zuckerberg decide for you what you’ll see, and what not? Or do you prefer to thrust Apple, or even Google? And what will drive the development of our XR life? Will we turn into full time consumers of products, data and services within the ecosystem that captured us? Will there be room for any home-grown content outside the main XR portals? Fortunately, there’s the independent web AR movement. But a technology can only thrive when there are both makers and viewers to use and appreciate about the things being made. The opportunity to life in world that appears as you want it to appear, is amazing. But to enable that, we do need to make sure there is an alternative realm of XR content. That’s not going to happen if we sit still, waiting for our governments to safely guide us into this new world. We need to jump in, try, experiment, understand, try again. Solve problems, at multiple levels. Let’s find ways ways to overcome privacy worries. And there are some practical issues to address too. And on a more fundamental level, we need to answer: what do we want to do in this infinite XR space anyway? What makes us happy, what makes us a human being? Which might become an extra challenge considering that we’re gradually turning into semi-digital beings.

https://www.realities-in-transition.eu/all-news

 

Wielklem peace

Tijdens het opruimen van m’n website stuitte ik op “Wielklem peace” foto’s uit 2003. Die zien er anno nu uit als beelden die met AI zijn gegenereerd. Maar destijds vergde dat nog uren ambachtelijk ‘photoshoppen’. Zo heette dat voordat het ‘fake news’ ging heten. Tegenwoordig kost het maken van z’n afbeelding een paar seconden. Maar op zich maakt dat niets uit voor iemand die er naar kijkt, het uiteindelijke beeld is het zelfde

De Volkskrant drukte de foto’s af. Of dat nu nog zou gebeuren valt te betwijfelen. Een realistisch ogende foto met een vreemde twist is niets opzienbarend meer. Toch ben ik wel benieuwd hoeveel pogingen het zou kosten om dit als resultaat te krijgen met als prompt ‘solutions for peace’. En ik vraag mij af of het van belang is uit welk brein de foto ontstaan is, uit een mensenbrein of een AI brein? Alhoewel het beeldresultaat dus hetzelfde is.

Het zijn vragen die op dit moment nauwelijks te beantwoorden zijn in een tijd waarin AI van alles opschudt en radicaal verandert.

https://sndrv.nl/wielklempeace

AR shooter, but different

In a classic “AR shooter” it is frustrating if you get hit by an ultra fast bullet that you didn’t see coming in, for whatever FOV or tech reason. But it is also frustrating if your target can just run away avoiding to be hit by a slow bullet.

So I’m trying something different. In the “Distant Hand” multi-user AR game you can keep controlling the hand that’s on its way to crash onto the HUD of your opponent.

And if you get hit? No worries, no need to run away. You can keep on playing for as long as you think you can still see your opponent. A game with a subjective end.

Give it a try with a Snapchat friend nearby (or elsewhere) by scanning the Snapcode in this clip. Have fun!

 

To do ++

Of het nodig is om een to-do list af te vinken verschilt van persoon tot persoon. Soms is het opschrijven al een hele zinvolle stap. Het gevoel dat iets genoteerd is, geeft rust. Al zou het misschien juist een onrustig gevoel moeten opleveren omdat de kans groot is dat er nooit meer iets gebeurt met de genoteerde to-do, bijvoorbeeld wanneer het to-do lijstje ondersneeuwt onder nieuwe to-do lijsten. Tuurlijk moeten op de nieuwe lijst eigenlijk ook de oude punten meegenomen worden. Het écht goed regelen vergt discipine. En de to-do lijsten moeten niet te lang worden omdat anders alle beschikbare tijd gaat zitten in het shiften van items van lijst naar lijst en van sub-categorie naar sub-categorie. Direct nu doen. Dringend doen. Later doen. Ooit misschien een keer doen.

Die discipine speelt ook een rol bij het opvolgen van de opgestelde to-do lijsten. Wanneer doe je dat? En hoe zorgvuldig en gestructureerd? Brengt niets en niemand de voorgenomen werkzaamheden in de war? En hoe verhouden de terloops gemaakte to-do lijsten zich tot de langer lopende taken en planningen? Als dat twee losse systemen blijven, hoe kies je hoe je de tijd indeelt? In plaats van daar ook nog over na te moeten denken, is het beter om daar eenmalig een procedure voor in te richten. Jezelf te automatiseren.

Een zinvolle uitbreiding op de klassieke to-do lijst opsommingen is een to-do++ lijst. Een soort recept voor jezelf van iets wat vaker terugkeert. Bijvoorbeeld aan het einde van het jaar of maandelijks. Dat kan als agenda reminder ingesteld worden met een herhaal-tijdsinterval, maar wat als de ooit ingestelde reminder wordt getriggerd op een moment dat het niet uit komt? En dat zelfs meerdere keren na het drukken van een ‘sluimer’ knop? Niet afgevinkte to-do’s kunnen zich opstapelen op een lange lijst achterstallige taken die de stemming drukt, zodanig zelfs dat de ondoenlijke to-do lijst tijdelijk, maar eigenlijk definitief, uit zicht wordt geplaatst.

Door in de to-do++ lijst ook een tijdsindicatie op te nemen en een label, kan er een mechanisme ontstaan waarmee zaken wel aan de bel trekken, en dat zelfs op het juiste moment doen. Door jezelf te automatiseren en je agenda in te richten met blokken waarin bepaalde labels of tags van toepassing zijn kunnen periodiek ingestelde taken zich aandienen. Indien die passen binnen de beschikbare tijd.

Een vervolg-stap in het efficient maken van de to-do lijst is het toevoegen van ‘recepten’ per taak. Voor bijvoorbeeld het bijhouden van een goed doordachte back-up strategie is het handig om aangestuurd te worden door je eigen instructie-set. Sluit deze harddisk aan. Start dat programma op. Want jezelf proberen te herinneren wat de stappen waren zodra de taak in je dagtaken verschijnt, heeft als nadeel dat je niet meer precies weet wat er nodig is. Het opzoeken daarvan kost een ongedefinieerde portie tijd, waarmee het een taak wordt die je liever even vooruit schuift totdat je zeker weet dat er genoeg tijd voor is, en dat moment komt nooit.

Jezelf automatiseren helpt. Je hebt nu X uur om te werken aan taken van type Y. Zo te werk gaan vergt wel een goede uitwerking van de ‘recepten’ én de discipline om je eigen instructies op te volgen. Be Your Own Robot! Tegelijkertijd ben je gedurende de dag bezig die robot aan te sturen. Met instructies die je te binnen schieten. Dit doen, dat doen. En wel wanneer dit of dat aan de hand is. Zoals: Y hoeveelheid tijd beschikbaar of taak X afgerond of trigger Z getriggerd. Een stap voor de pro’s is het opdelen van de ‘recepten’ in sub-stappen. Dus als deel A gereed is, kan deel B gereed staan om getriggerd te worden. Maar vooralsnog zou het al een flinke stap zijn om dit basis mechanisme draaiend te hebben.

AI meets AR (glasses)

Outrun IRL

Er is vermoedelijke een keurige wetenschappelijke classificering die aangeeft wanneer iets AR of MR of XR is (Augmented Reality, Mixed Reality, Extended Reality)
 
Maar hands-on en praktisch bekeken gebeurt er dit experiment iets wat verder gaat dan simpelweg ergens een virtuele laag over de realiteit plempen. Hier ontstaat een wisselwerking waarbij het fysieke niet enkel verrijkt wordt door het virtuele, het virtuele krijgt op z’n beurt ook een boost van het fysieke
 
Outrun IRL!

Gastles AR

Als je denkt dat het maken van Augmented Reality te complex is, of als je vindt dat AR vaak oppervlakkig is, dan is deze workshop wat voor jou. Op een hands-on manier ontdek je dat het maken van AR niet ingewikkeld is, maar ook dat je je niet hoeft te beperken tot de overbekende facefilter effecten. Je kunt naast gezichten ook hele personen tracken, wel 5 tegelijk. Met een Snapchat filter is de ruimte om je heen binnen een paar minuten interactief. Voor iedereen iedereen die een goed idee heeft is er in de Lens Studio tool wel een kant-en-klare template te vinden waarmee je direct iets draaiend hebt. En met een paar regels code is dat idee vervolgens in levende lijve te ervaren.

Fashion4two

Currently when you want to ‘wear’ a piece of #digitalfashion outside of the #metaverse, you’ll find yourself pointing your phone with an AR app at someone else wearing a virtual creation. Or you have a very long selfie stick so you can view yourself. But actually the screen is a little small to see yourself properly. Especially when you need to include two people in that image. As is the case with this new creation I’ve made.

It’s a peek into the future of digital fashion, as it will appear in an era when it’s not just about solo try-on experiences. Soon you’ll be amongst other people who’re wearing digital fashion too. And that triggered me to start thinking about digital fashion that connects to other people neary. As a basic proof-of-concept test I’ve created this “Fashion4two” wearable that includes a script which changes the color from blue to red when you’re close together.

Bussiness Model Canvas

Omgekeerde ‘Bussiness Model Canvas’ aanpak:
 
stap 1: zomaar een AR filter effect maken
stap 2: bedenken waar het effect het best tot z’n recht komt
stap 3: overwegen of er nog wat functionaliteit bij moet. Een spel-element voor degene die springt? En/of iets voor de toeschouwer? Een puntentelling?
stap 4: onderzoeken of er markt voor is, zodat er een doorontwikkeling kan worden gestart
stap 5: concluderen dat het prima is om het bij stap 1 en 2 te houden, want wat zou er een hoop niet gemaakt zijn als door de negatieve conclusie in stap 4 overal een ‘no go’ op was gekomen.
https://twitter.com/sander/status/1524656393650847744?s=20&t=_KL9PpRF0sdY929LeIq9Qw

AR duo outfit

What’s going to be the main challenge for #digitalfashion? Mimicking physical fabrics in the most realistic way? Replacing some aspects of the current fashion production cycle in an environmentally friendly way?

Or will it be about exploring a new freedom, working with virtual materials and creating things that are not possible (or comfortable) in the ‘real’ world?

I’m in favour of the latter. Here’s a piece of virtual garment you don’t want to wear for real. But in #AR you can! This stretchy “duo outfit” changes its color from blue to red when you’re getting closer together. Anyone, except Mia and Vincent?

Creating digital fashion by hand

Three statements on the future of #digitalfashion

– Sooner or later we will all be adjusting our #AR outfit whenever we encounter a full-body mirror (How many times a day will we be doing this, if it’s this easy?)

– Besides the ready made virtual outfits for sale as unique #NFTs there will be a surge in the ‘generators’ category. So you’ll buy the scripts that enable you to design your own unique creations

– Virtual fashion might look like a metaverse thing. But as soon as AR glasses are going to be more common, it will take of in the ‘real world metaverse’ too.