13 (+3) KI- & AR-Impulse bei einer Tasse...

13 (+3) KI- & AR-Impulse bei einer Tasse...

Zunächst möchte ich mich für die Fehlsendung am Mittwoch entschuldigen. Der Beitrag Von 2D zu 3D: Wie das Web spatial wird und was Unternehmen davon haben war als LinkedIn-Artikel geplant und... ich habe mich verklickt, so wurde ein Newsletter draus.

Wegen des heutigen Datums gibt es TROTZDEM die geplante Sommerausgabe und vermutlich in ca. 2 Wochen die nächste Ausgabe. Dann sind wir wieder im normalen Rhythmus.

Hier ist nun mein Sommerspecial, versendet an meinem 56. Geburtstag an die geschätzten Newsletter-LeserInnen auf LinkedIn. Ich genieße den Tag -wie jedes Jahr- bei einem Zoo-Spaziergang und IHR könnt Euch durch diese Impulse klicken.

Die letzten zwei Jahre gab es Podcast-Tipps für den Sommer, doch dieses Jahr habe ich einige meiner LinkedIn-Beiträge und -Artikel rausgesucht. Best-Of... Viel Spaß!

KI-Themen

Bei all dem Apple-KI-gebashe dachte ich mir... nehm ich doch mal den Gegenpart ein und verfasse meine Gedanken WARUM Apple so agiert WIE es agiert.

Wie heisst Apples Ki-Modell? ChatGPT oder Llama (Meta) oder Gemini (Google) kennen wir. Doch wie in der Name von Apples KI? Und was hat der Science Fiction Author Isaac Asimov (linke Seite) und der… | Gerhard Schröder | 37 comments
Wie heisst Apples Ki-Modell? ChatGPT oder Llama (Meta) oder Gemini (Google) kennen wir. Doch wie in der Name von Apples KI? Und was hat der Science Fiction Author Isaac Asimov (linke Seite) und der Schauspieler Lee Pace (rechte Seite) damit zu tun? Foundation. Ist der Name einer SF-Romanserie von dem Author, den man wenigstens für seine drei Roboter-Gesetze aus dem Jahr 1942 kennen sollte: 1. Roboter dürfen keine Menschen verletzen. 2. Roboter müssen den Befehlen des Menschen gehorchen 3. Roboter müssen sich selbst schützen. Er schrieb ab 1950 den „Foundation-Zyklus“ https://lnkd.in/e79s8-VS welcher gerade von Apple als Serie verfilmt wird: https://lnkd.in/eBDeapkh) Der Schauspieler Lee Pace spielt darin die Hauptrolle. Foundation ist sicher in Erinnerung an diesen herausragenden Author und seine Robotergesetze der Name von Apples KI-Framework. Nicht Siri. 😉 Für Programmierer ein Einstieg in das KI-Framework „Foundation“ von Apple: https://lnkd.in/eZRVVpAZ Nun werden einige Menschen denken… der Schröder und sein Apple-Fan-Darsein. ChatGPT kann doch vieeeeeel MEHR als Foundation. Well. Klar, wenn ich ein KI-Modell mit alles aus dem Netz zusammengeklauten Daten (Stichwort MidJourney) trainiere und ein server-basiertes Modell habe, dann kann ein Modell VIEL. Sollte man jedoch zuerst die Rechte klären wollen (Anwälte brauchen Zeit…) und denkt an ein KI-Modell welches ohne Bigbrother-Datenzugriff via (US-)Server funktioniert und dann noch LANGE nach OpenAI und Co. mit der Entwicklung beginnt, dann kann das Modell JETZT weniger… Apple geht aber auch einen anderen Weg: Sie schafften mit Foundation (Wortspielkalauer in 3,2…1) eine Basis für die Grundlage aller Fundamente, eine Foundation, auf der nun App-Entwickler „nur APIs“ ansprechen müssen und viele Apps können bald viele KI-Funktionen „auf dem Gerät“ errechnen, ohne einen (US-)Server nutzen zu müssen. Sollte das KI-Modell von Apple bald MEHR können, dann können alle diese Apps automatisch MEHR. Und Apple liefert ohne sonstige Software-Updates immer wieder „Over The Air“ KI-Updates. Ja, es wird zur Zeit immer wieder über Siri und Co. gelacht. Doch Apple macht im Hintergrund seine Hausaufgaben. Infrastruktur braucht Zeit. Stichwort Autobahnbrücken und Bahnschienen in Deutschland… Ich bin mir SICHER, Apple ist noch lange nicht aus dem Rennen. Apple stellte seine erste Smartwatch Jahre nach dem Mitbewerber Google oder Pebble vor. Dann begann die Aufholjagd. Dito Kopfhörer. Was wurde über diese komischen weißen Dinger im Ohr gelacht. Das erste Smartphone kam auch nicht von Apple. Da wurde ebenfalls gelacht von RIM / Blackberry oder Microsoft, Nokia und Co. Ich sehe in dem Name des Apple-KI-Systems auch ein ethisch-politisches Symbol. Stichwort Robotergesetze. Was denken meine KI-Spezis Kai Heddergott Frank Michna oder gar Sascha Pallenberg 潘賞世 Thomas Riedel? (Bild via ChatGPT) | 37 comments on LinkedIn

OpenAI plant ja DEN iPhone-Killer. Ok, ganz neu wurden die Infos schon wieder wegen eines Markenstreits gelöscht. Wie KÖNNTE aber eine Antwort von Apple aussehen?

#apple #ki #sixthsense #rabbitr1 #humanaipin #openai #wearables #nonewgadget #visualsales #linkedinhumor | Gerhard Schröder | 52 comments
Apple killt das nächste KI-Gadget! Und zwar mit einem weißen Band am Case und einem leisen „Pling“ aus dem rechten AirPod. Erinnert sich noch jemand an den TED Talk „Sixth Sense“ von Pranav Mistry? Sehenswert: https://lnkd.in/e-TEUbPF Damals: Beamer am Hals, bunte Fingernägel, Zukunft pur. Vor ein paar Monaten: Rabbit R1 und Human AI Pin machen das Konzept wieder hip, diesmal mit KI, Cloud und einem Abo-Modell. Während OpenAI an „etwas mit Jony Ive“ bastelt, lehnt sich Apple zurück und zieht vielleicht genau aus der Kombi seiner Hardware seine Stärke: • iPhone um den Hals. • AirPods im Ohr. • Watch am Handgelenk. Fertig ist das Anti-KI-Gadget. Nur meine Ideen, natürlich kein echtes Apple-Produkt. So KÖNNTE aber Apples Antwort auf smarte Sonnenbrillen von Meta oder OpenAIs Lösung aussehen. Und es gibt genug Menschen mit einem iPhone-Case “am Band”. Kameramodul zeigt in die Umwelt. Mit der Gestenerkennung der Apple Watch wird die Kamera am iPhone aktiviert und via Sprachausgabe die Info in die AirPods übertragen. Kein neues Gerät, keine neue Schnittstelle, einfach nur ein smarter Remix aus Dingen, die du eh schon besitzt. Und plötzlich wirkt das iPhone nicht mehr wie ein Auslaufmodell, sondern wie ein Transformer im Ruhemodus. 💬 In den Kommentaren verlinke ich ein paar meiner ältere Inspirationen zur Apple-Strategie. Wer mehr Apple-Tech-Stuff will: gerne folgen. Und wer sich für Visual Selling mit AR & XR interessiert: Da gibt’s meinen Newsletter „VisualSales“. #Apple #KI #SixthSense #RabbitR1 #HumanAIPin #OpenAI #Wearables #NoNewGadget #VisualSales #LinkedInHumor Ja, der Bilderstil ist eine Anlehnung an alte iPod-Werbung. ich wollte schon immer Modell für so eine tolle Werbungkampagne sein. So klappts... | 52 comments on LinkedIn

All die KI-Tools und welches Bild ist ECHT? Es gibt Wege zur Kennzeichnung. Hier ein Weg erklärt...

Ist das Bild ECHT? HowTo mit einer Anleitung in 5 einfachen Schritten: Bild mit „Content Credential“ auf LinkedIn posten. Warum? Da ich viele Bilder sehe und immer mehr die Frage nach der… | Gerhard Schröder | 29 comments
Ist das Bild ECHT? HowTo mit einer Anleitung in 5 einfachen Schritten: Bild mit „Content Credential“ auf LinkedIn posten. Warum? Da ich viele Bilder sehe und immer mehr die Frage nach der „Echtheit“ eines Bildes besteht, hier eine Anleitung wie man mit der Situation umgehen kann. Was sind Content Creditial? Content Credentials (auch: Provenienzdaten) sind digitale Metadaten, die Informationen über die Entstehung und Bearbeitung eines Bildes oder Dokuments enthalten. Sie zeigen transparent, ob KI zum Einsatz kam, wer der Urheber ist und welche Software verwendet wurde. Der Standard wurde von der C2PA (Coalition for Content Provenance and Authenticity) entwickelt. Content Credentials helfen, Fälschungen zu erkennen und Vertrauen in digitale Inhalte zu stärken. Tools wie Adobe Photoshop oder DALL·E (via ChatGPT) können automatisch solche Informationen einbetten. Über Webseiten wie https://lnkd.in/eN6NWzcx lassen sich diese Herkunftsdaten später überprüfen – ideal für mehr Transparenz auf Plattformen wie LinkedIn. Voraussetzungen • Ein ChatGPT Plus-Account (für Bildgenerierung mit DALL·E). • Ein LinkedIn-Account. • Ein Tool wie https://lnkd.in/eN6NWzcx, um die Content Credentials zu prüfen. Schritt 1: Bild mit CR von ChatGPT erstellen lassen Beispiel-Anfrage an ChatGPT: „Erzeuge mir bitte ein Bild einer modernen Messepräsentation mit AR-Brille. Das Bild soll Content Credentials enthalten.“ Was passiert dabei? • ChatGPT generiert ein Bild mit DALL·E. • Das Bild enthält automatisch Content Credentials nach dem C2PA-Standard, inkl. Hinweis „Generated by ChatGPT“. • Du bekommst die Datei im Originalformat (PNG oder JPG). Schritt 2: Bild herunterladen und abspeichern • Klicke im Chat auf das Bild. • Rechts oben: Download-Button anklicken. • Speichere es lokal ab, z. B. als messebild-viSales.png. Schritt 3 (optional): Content Credentials prüfen • Gehe auf https://lnkd.in/eN6NWzcx • Lade dein Bild hoch. • Du siehst nun: • „Generated by ChatGPT“ • Datum & Uhrzeit • Keine manuelle Bearbeitung (wenn zutreffend) 📌 Tipp: Kopiere die URL des Prüfergebnisses – du kannst sie später bei LinkedIn dazuschreiben. Schritt 4: LinkedIn-Beitrag erstellen • Gehe auf linkedin.com und erstelle einen neuen Beitrag. • Lade das Bild hoch. • Schreibe einen erklärenden Text, z. B.: 💡 AR ist die Zukunft im Vertrieb – hier ein visuelles Beispiel, wie moderne Produktpräsentationen aussehen können. Dieses Bild wurde mit KI (ChatGPT/DALL·E) erstellt und enthält Content Credentials, die transparent zeigen, wie es entstanden ist. Herkunft prüfen: https://lnkd.in/ej4thhNm © 2025 viSales GmbH Schritt 5: Posten und ggf. im Kommentar ergänzen • Poste den Beitrag. • Du kannst auch im ersten Kommentar noch schreiben: „Bild generiert mit Hilfe von ChatGPT – inklusive Content Credentials zur Nachvollziehbarkeit.“ ** Ich bin NICHT die Person. Falsche Tasse für´n Tee. Falsches Lächeln. | 29 comments on LinkedIn

Gedanken zu Suchmaschinenoptimierung #SEO und Answering Engine Optimitation #AEO.

SEO ist tot! Es lebe AEO? | Gerhard Schröder | 18 comments
Answer Engine Optimization (AEO) ist das NEUE SEO? Wir sitzen gerade an einem Re-Start unserer eigenen Website. Softlaunch schon erfolgt. Baustellenschild-GIF-Style. Drum denkt man ja nicht nur an Barrierefreiheit als Thema, sondern auch an so einen Punkt... Da lachen sicher SEO-Experten wie Marco Janck 💯🔍 Jörg Zimmer 🌻 oder Frank Erhardt. Und Content-Spezialisten wie Dr. Kerstin Hoffmann Elena Janzen und Co. wundern sich... Thomas Kumlehn Axel Weinreich und Miranda Guerriero sitzen an unser Website, zwischen den Kundenprojekten. Danke Euch 3! | 18 comments on LinkedIn

Wie ich mich "Selbstmotiviere" in meiner Freizeit neue KI-Tools auszuprobieren.

Oster-Bastelarbeiten mit KI Seit fast einem Jahr nutze ich nun gezielt KI-Tools für mein Fantasy-Hobby: Texte, Bilder. Ich möchte heute mal einen Einblick in meine heutigen Bastelarbeiten geben… | Gerhard Schröder
Oster-Bastelarbeiten mit KI Seit fast einem Jahr nutze ich nun gezielt KI-Tools für mein Fantasy-Hobby: Texte, Bilder. Ich möchte heute mal einen Einblick in meine heutigen Bastelarbeiten geben. So habe ich als Teil meiner Eigenmotivation mit KI-Tools angefangen. Im privaten Umfeld. Um dann, mit ein paar Erfahrungen, den nächsten Schritt, im beruflichen Umfeld, zu gehen. Ich bringe seit einer Weile jeden Monat ein PDF-Fantasy-Magazin heraus. Lesen weniger als 20 Personen. Ein paar Freunde schreiben oder zeichnen mit. Doch der Löwenanteil sind Kurzgeschichten von mir, inzwischen via ChatGPT-unterstütztes Formulieren. Ich erzähle Evelyn (so nenne ich den trainierten Chat) die Hintergrundgeschichte der handelnden Personen und sonstige Rahmenbedingungen, hindere Evelyn am Träumen… Überarbeitet die Texte und füge Bilder (lange Zeit via MidJourney) hinzu. Seit einer Weile entstehen die Bilder mit ChatGPT. Ich wollte aber MEHR machen als nur „Chatten“. Also fing ich an Figuren zeichnen zu lassen. Diese dann auf dicken Papier auszudrucken, auszuschneiden, nachzubearbeiten. Dann begann ich Häuser, Bäume und Co. zu gestalten. Und schon war ich an dem Punkt Comics zu gestalten. Figuren und Gegenstände zu platzieren, mit dem iPhone zu fotografieren (Bildkomposition und Co.), mit einem Grafikprogramm nur noch auf SW-Bilder mit starken Kontrast zu reduzieren und dann zu Layouten. Texte für die Sprechblasen und Co. Natürlich könnte ich auch diese Comics via ChatGPT gestalten lassen. Mir geht es aber um diese besonderen Look. Um „Handarbeit“. Basteln. KI und Kreativität zusammenbringen. Wer ein „vertontes Comic“ sehen mag, auf meinem YouTube-Kanal zu diesem doch SEHR speziellen Hobby gibt es dazu ein Video: https://lnkd.in/eUir8RxD In der Bilderstrecke sind ein paar Comic-Bilder, ein paar der Farbbilder via MidJourney und ein zwei Bilder von der Bastelwerkstatt. Wie nutzt meine geschätzte Timeline die Osterzeit? Bastelarbeiten??? 🤠 — Frohe Ostern! Dieser Beitrag entstand nach Dr. Kerstin Hoffmanns Zeilen zu Ihrem Strickblog und Kai Heddergotts berechtigter Kritik an dem KI-Trend „Blisterbilder“. Wer mag, kann gern meine Idee übernehmen und KI & Bastelarbeiten verbinden. Geht bestimmt sogar mit Kindern?

Apple-Inspirationen

Was wäre der Unterschied zwischen einer Apple-Smartbrille und einer Meta-Smartbrille?

ZWEI BRILLEN, ZWEI WELTEN Ein Tag mit Metas Ray-Ban vs. Apple Smart Glass. Nur Inspirationsgedanken... 07:48 UHR – S-BAHN ESSEN -> DÜSSELDORF Ben trägt seine Meta Ray-Ban. Kamera oben links blinkt.… | Gerhard Schröder | 123 comments
ZWEI BRILLEN, ZWEI WELTEN Ein Tag mit Metas Ray-Ban vs. Apple Smart Glass. Nur Inspirationsgedanken... 07:48 UHR – S-BAHN ESSEN -> DÜSSELDORF Ben trägt seine Meta Ray-Ban. Kamera oben links blinkt. Er ruft laut ins Abteil: „Hey Meta, mach ein Selfie. Und spiel meine Frühstücks-Playlist.“ Zwei Leute schauen hoch. Eine Dame zieht ihr Tuch ein wenig höher ins Gesicht. Ben lacht. Er meint’s nicht böse – aber der Zug ist jetzt nicht mehr anonym. Zwei Sitze weiter sitzt Alex. Er trägt eine Apple Smart Glass. Ähnlich elegant wie eine Ray-Ban Wayfarer – aber dünner. Unauffälliger. Kein sichtbares Kameraloch. Sein Glas zeigt ihm diskret, wer gerade versucht, ihn zu erreichen. Kein Ton, kein Licht – nur ein kurzer Glanz auf der Innenseite. Er wischt mit dem Daumen am Bügel nach unten. Nicht jetzt. 08:21 UHR – KAFFEESCHLANGE IN DER CITY Ben hält seine Meta-Brille auf den Barista. „Hey Meta, stream das mal. Der Typ hier macht jeden Tag ’nen Herz ins Milchschaum. Geil, oder?“ Der Barista friert kurz ein. Meta fragt: „Möchtest du deinen Namen anzeigen?“ Ben lacht. Natürlich. Alex hat sein Getränk schon. Die Apple Glass hat beim Reinkommen automatisch übermittelt: Stammkunde. Tea. Earl Grey. Hot. Die Zahlung läuft über die Apple Watch, Gesichtserkennung diskret im Hintergrund – nur lokal. Kein Cloud-Abgleich, keine Kamera läuft dauerhaft. Niemand muss dabei nervös werden. 10:45 UHR – KUNDENTERMIN Ben erklärt mit seiner Meta-Brille, wie KI bei Videoanalyse hilft. Die Brille erkennt Gesichter, analysiert Emotionen, trackt Aufmerksamkeitskurven. Der Kunde fragt: „Und wohin gehen die Daten?“ Ben: „Keine Ahnung, Cloud halt.“ Alex zeigt mit seiner Apple Smart Glass ein USDZ-Modell, das direkt im Raum schwebt. Alle sehen es über das geteilte iPad – er kontrolliert es mit Blicken, ganz ohne Finger. Der Kunde fragt: „Und was speichert die Brille?“ Alex: „Nichts. Alles ist verschlüsselt und bleibt auf dem Gerät.“ 17:30 UHR – ZUSAMMENFASSUNG Ben hat 22 Clips, 18 Storys und 1.200 neue Ansichten. Aber auch vier offene Datenschutzanfragen. Alex hat 1 Projektfortschritt, 0 Störungen – und das Gefühl, dass Technologie sich heute wie ein stiller Assistentverhalten hat, nicht wie ein lauter Moderator. FAZIT: Wenn Apple eine Smart Glass bringt, dann: – ohne blinkende Lichter – ohne Gesichtsscans in der Cloud – ohne Daueraufnahme Dafür mit: – lokaler Verarbeitung – diskretem Design – natürlicher Bedienung (Blick, Geste, Sprache) – und Respekt vor dem Gegenüber Denn Apple verkauft keine Daten. Sondern Vertrauen. -- Dies sind meine aktuellen Gedanken zu dem Thema. Vor 10 Jahren hatten wir GlassHoles... -- Hatte erst auf der XR EXPO - Virtuelle Welten mit einem Professor ein Gespräch über die Meta-Demo einer neuen Smarten Brille und seinen Gedanken dazu... er findet es Spooky wenn die Brille sich -via Cloud- merkt wo er die Schlüssel liegen gelassen hat. Seine Studenten waren da anderer Meinung. Wie sieht es meine Timeline? | 123 comments on LinkedIn

Wie Apple mit bestehender Hardware das Smartphone zu einem AR-Star machen könnte.

#augmentedreality #usdz #arquicklook #applewatch #gestensteuerung #userexperience #digitalersupport #vertriebderzukunft #interactiondesign #salesenablement #digitaleprodukte #agenturleben #visales… | Gerhard Schröder
Gestensteuerung statt Display-Steuerung = Bessere AR! ARQL –Erklärung gleich– braucht kein Headset, nur eine Idee MEHR Ich sitze im Büro. In der rechten Hand ein iPhone. Darauf: eine ganz normale Augmented-Reality-Anwendung. In der linken Hand: ein Apple Pencil, mit dem ich auf den Schreibtisch zeige. Kein Wischen. Kein Zoomen. Kein Tippen. Nur ein Fingerzeig – und das Objekt bewegt sich. Was auf dem Bild wie Science-Fiction wirkt, ist technisch heute schon möglich. Was fehlt? Nur die offizielle Unterstützung durch Apple. Denn AR Quick Look (ARQL) – das unscheinbare, aber starke Feature in Safari, Mail und Dateien – erlaubt es längst, 3D-Inhalte im USDZ-Format ohne App in der echten Welt zu platzieren. Doch die Interaktion ist limitiert. Die Steuerung fühlt sich noch wie 2016 an: Ich muss auf das Display tippen zur Steuerung der interaktiven AR-Inhalte. Statt mit zwei Fingern auf dem Display zu hantieren, könnte die Steuerung durch den Raum smarter sein: – Mit dem Apple Pencil als virtueller Pointer. – Mit der Apple Watch, die dank Gestensteuerung seit watchOS 10 erkennt, ob ich Daumen und Zeigefinger zusammenziehe. Diese Funktion wurde für Barrierefreiheit entwickelt – aber sie ist perfekt geeignet, um Inhalte zu selektieren, zu verschieben oder Aktionen in AR auszulösen. Ganz ohne Displayberührung. Und wenn man sich überlegt, wie viele Menschen heute bereits ein iPhone UND eine Apple Watch besitzen, wird klar: Das Interface ist längst da. Nur die Verbindung fehlt. Was wäre, wenn Apple ARQL dafür öffnet? Wir bei viSales glauben: USDZ ist mehr als nur ein hübsches Dateiformat. Es ist ein Türöffner – für Produktkommunikation, für immersive Erlebnisse im Vertrieb, für interaktive Schulungen und digitale Zwillinge. Wir entwickeln genau solche Inhalte – realitätsnah, performant, plattformunabhängig. Wenn du also schon ein CAD-Modell hast – oder eine Produktidee, die sich besser im Raum erklären lässt als auf einer PowerPoint-Folie – sprich uns an. Wir von viSales GmbH machen daraus ein OpenUSD / USDZ-Format, das sich heute nutzen lässt. Und morgen vielleicht ganz ohne Wischen. Jetzt ist der richtige Moment, um sich auf die nächste AR-Stufe vorzubereiten – und zwar mit dem, was die Kunden schon besitzen: iPhone. Apple Watch. Neugier. Schick mir gern eine Nachricht – oder kommentier, wenn du ähnliche Ideen hast. Freue mich auf den Austausch. #augmentedreality #usdz #arquicklook #applewatch #gestensteuerung #userexperience #digitalersupport #vertriebderzukunft #interactiondesign #salesenablement #digitaleprodukte #agenturleben #viSales #apple Disclaimer: Bilder erstellte ChatGPT auf Basis meines Profilbilds und eines Prompts. Nur bei der Apple Watch musste leicht nachgearbeitet werden. Ich trage nur an EINEM Handgelenk eine Uhr. ;)

Wie Apple seine Kopfhörer als Smartbrillen-Alternative ausbauen könnte.

Kopfhörer mit Kamera und Siri-Anbindung an mein iPhone Was wäre wenn es so ein Produkt gäbe?* Eine kleine Geschichte dazu: "Augmented Audio" im Revier Es war ein gewöhnlicher Donnerstag in Essen… | Gerhard Schröder | 11 comments
Kopfhörer mit Kamera und Siri-Anbindung an mein iPhone Was wäre wenn es so ein Produkt gäbe?* Eine kleine Geschichte dazu: “Augmented Audio” im Revier Es war ein gewöhnlicher Donnerstag in Essen. Na ja, so gewöhnlich, wie ein Tag sein kann, an dem ich mit den brandneuen AirPods Max Vision durch die Innenstadt läuft – in der einen Hand einen dampfenden Becher Tee, stilecht: “Tea. Earl Grey. Hot.” Die Kameras an der rechten Ohrmuschel – dezent, aber elegant – hatten sich beim ersten Schritt aus dem Haus bereits aktiviert. ZWEI KLEINE LINSEN, dazu ein LIDAR-SENSOR, ganz im Stil von Apple: kaum sichtbar, aber UNFASSBAR SMART. Orientierung & Umgebungswahrnehmung Als ich am Hauptbahnhof aus der U-Bahn tritt, registriert das System automatisch das Gewusel vor ihm. Siri flüstert per 3D-Audio ins rechte Ohr: “Achtung, Passanten in 2 Uhr-Position. Baustelle voraus. Links halten.” Ich schmunzel. Die alten Air Rod Pro 2-Kopfhörer hätten das Chaos einfach WEGGEFILTERT – die neuen helfen, sich SICHER UND INTUITIV zu bewegen. Keine App, kein Display – nur Sound, der sich so anfühlt, als würde die Stadt selbst erzählen, wo’s langgeht. Objekterkennung & Kontext An der Kreuzung erkennt das System das neue Mural an der Wand – ein Kunstwerk, das ich bislang übersehen hatte. “Kunstwerk: Rhythmus der Kohle. Gestaltet von Nils B., gefördert durch das Projekt ‘RuhrKunst Urban’ 2024.”* Bleibe stehen, nehme einen Schluck Tee, schaue hoch – das HEADTRACKING merkt, dass sein Blick fokussiert ist – und blendet die HINTERGRUNDGERÄUSCHE leicht aus. Der Klang der Stadt verschwindet, während Siri in leiser Stimme mehr erzählt. Personenerkennung & Geräuschverstärkung Zwei Meter weiter ruft jemand seinen Namen. Die Kameras erkennen, dass ein Kunde seiner Agentur winkt. Die Mikrofone richten sich automatisch aus, die NOISE CANCELLATION nimmt ab, und plötzlich hört er: “Ey Gerd! Schon auf Zukunftstour unterwegs, wa?” Gerd hebt grinsend den Becher, antwortet im Gehen: “Immer. Mit Earl Grey im Tank und Siri im Ohr.” Audiotour & Sprachnotiz Er biegt Richtung Limbecker Platz ab. Plötzlich poppt ein Hinweis auf: “Historischer Ort: Alte Synagoge Essen. Möchtest du mehr hören?” Er nickt kurz. Das System merkt’s – KOPFNICKEN-INTERAKTION aktiviert. Er bekommt eine kurze Audiotour, perfekt dosiert für fünf Minuten Fußweg. Gleichzeitig spricht er eine Notiz ein: “Idee: Wir machen ’ne AR-Audio-Stadtführung für unsere Kunden. Mit lokaler Historie und Sounddesign. Vielleicht sogar mit eigener Stimme!” Siri antwortet prompt: “Notiz gespeichert. Gerd, du bist ein VISIONÄR.” Sicherheitsfeature Als ein E-Roller etwas zu nah vorbeisaust, vibriert kurz die rechte Ohrmuschel. Nicht aufdringlich – aber DEUTLICH GENUG. Der LIDAR-SENSOR hatte’s erkannt, bevor mein Hirn es verarbeitet hatte. Ich atmet tief durch. Noch ein Schluck Tee! AIRPODS MAX VISION DON’T JUST HEAR THE WORLD. UNDERSTAND IT. *) Mehr dazu in den Kommentaren | 11 comments on LinkedIn

OpenUSD & Augmented Reality

Zur letzten Newsletter-Ausgabe eine Infografik.

#digitaltwin #openusd #maschinenbau #b2bvertrieb #cad #arimvertrieb #mittelstanddigital #karltrinkttee | Gerhard Schröder
Wozu ein Digital Twin? Weil er Missverständnisse verhindert, Entwicklungszeiten verkürzt – und dem Kunden schon vor dem ersten Bauteil zeigt, was er bekommt. Ein Digital Twin ist mehr als ein 3D-Modell: Er erklärt Funktionen, zeigt Varianten, unterstützt den Vertrieb – und in der höchsten Ausbaustufe simuliert er sogar das Verhalten der echten Maschine. Wir von viSales GmbH begleiten Mittelständler vom CAD-Modell zur Apple-kompatiblen OpenUSD-Datei – und helfen bei Bedarf auch beim späteren Transfer in NVIDIA-Omniverse-Strukturen. So wird aus einem Entwurf ein Werkzeug für Vertrieb, Schulung und Service. 👉 Alle Details, Argumente und eine kleine Kantinenszene mit Karl, Franz & Anton gibt’s hier im Longread: → Link zum Newsletter in den Kommentaren. #DigitalTwin #OpenUSD #Maschinenbau #B2BVertrieb #CAD #ARimVertrieb #MittelstandDigital #KarlTrinktTee

Zur vorletzten Newsletter-Ausgabe eine Bilderstrecke. Unbedingt ausprobieren!

Direkt ausprobieren | Gerhard Schröder
#AR in Video-Calls – so funktioniert moderne Produktberatung Was wäre, wenn dein Kunde das Produkt schon im Gespräch sehen – und live anpassen könnte? Mit der AR-Funktion von iPhones, iPads oder Apple Vision Pro wird aus einem Videocall ein interaktives Erlebnis: - AR-Objekte direkt im Raum platzieren - Produkt konfigurieren in Echtzeit - Zusammenarbeiten via geteiltem Bildschirm Ob Möbel, Maschinen oder Technik – dein Produkt wird greifbar. Ideal für Vertrieb, Beratung und Kundenservice. So wird aus Sehen ein Verstehen. Und aus Verstehen ein Kauf. Hinweis: Die gezeigte Funktion ist Teil des Apple-Betriebssystems. viSales GmbH erstellt dafür den passenden animierte & interaktive AR-Content (USDZ-Dateien) – individuell, hochwertig und exakt auf dein Produkt abgestimmt. Apple liefert die Technik. Wir liefern den Inhalt. Gern stelle ich Ihnen diese Funktion in einer persönlichen Demo vor: Gerhard Schröder > PN. Oder ein Kommentar unter dem Beitrag und ich melde mich.

Meine Gedanken nach der Apple-Entwicklerkonferenz.

WWDC 2025 Eine Woche später, ein paar Tassen Tee später Wer die WWDC bewertet, bevor sie GANZ vorbei ist, schreibt auch seinen Urlaubsbericht am Tag der Anreise. Genau das passiert jedes… | Gerhard Schröder
WWDC 2025 Eine Woche später, ein paar Tassen Tee später Wer die WWDC bewertet, bevor sie GANZ vorbei ist, schreibt auch seinen Urlaubsbericht am Tag der Anreise. Genau das passiert jedes Jahr. Kaum ist die Apple-Keynote vorbei, explodiert LinkedIn mit Hot Takes. „Siri kann jetzt KI, oder eher Foundation!“ – „Apple kopiert (nicht) OpenAI!“ – „Endlich das NEUE...!“ Aber wer nur Teil A schaut – die “Investoren-“Keynote und Teil B (Platforms State of the Union) sowie Teil C (über 100 Schulungsvideos im Wochenverlauf) ignoriert, der redet über eine Entwicklerkonferenz ohne Entwicklerwissen. Und das ist, mit Verlaub: witzlos. Also habe ich gewartet. Und Tee getrunken. Und dann kam er: mein WWDC-Moment. Nicht laut. Aber visionär. Das Web bekommt Raum. Safari bekommt Tiefe. In einem der neuen Schulungsvideos versteckt sich die eigentliche Sensation: Website-spezifische “Environments”. Mit Safari. Auf der Apple Vision Pro. So läufts ab: Ich surfe mit einer Apple Vision Pro auf der Nase auf Website, aktiviere per Schalter das neue Environment... und plötzlich stehe ich vor Schröders Café am Ende des Metaverse. Nicht als Video. Sondern als live gerenderte 3D-Szene. Im Browser. Aus einer einzigen USDZ-Datei. Mit Schatten, Tiefe, Stimmung. Und dem Blick auf eine Welt, die sich verändert. Ich kann mich (noch) nicht frei bewegen. Aber ich kann: sie um mich herum erscheinen lassen, von der Realität ins VR-Feeling per Crown-Dial wechseln. Und das Beste: Diese Umgebungen lassen sich frei gestalten. Von uns. Für euch. Für Produkte, die erlebbar sein sollen. Use Case gefällig? Hier ist einer. Ein Maschinenbauer kann seine Anlage im “Environment” aufbauen lassen. Mit Animationen. Mit Erklärungstexten etc. Noch ohne Kaufbutton, aber mit klarer Botschaft: „Das ist nicht nur ein PDF. Das ist dein nächster Vertriebsraum.“ Noch sind die Szenen animiert und nicht interaktiv. Noch ist der Walkspace fixiert, bald auf 3x3 m beschränkt. Aber der Raum ist offen – und wir wissen, wie man ihn füllt. Inklusive Datenoptimierung, USDZ-Architektur und Raumdramaturgie. Und OpenUSD? Leider: Wenig Neues von Apple auf der Bühne. (Noch) kein Update für den Reality Composer Pro. Der Model-Player wurde für die AVP übernommen, ja... aber echte Power sieht anders aus. Doch am Mittwoch nach der WWDC saß mein Kollege Thomas mit Kolleg:innen von Apple, Pixar & Co im Zoom-Call. Unser alle zwei Wochen stattfindendes USD-Arbeitsmeeting. Und da spürt man: Da kommt was. Mein Angebot: Wenn du wissen willst, ob dein Produkt fürs 3D-Web taugt – lass reden. Wir können dein erstes “Environment” bauen. Oder dir zeigen, wie du OpenUSD auch im Browser nutzen kannst. Ganz ohne App. Aber mit Raumgefühl. Zoomlink? Gibt’s auf eine Tasse Tee mit Gerhard Schröder. Im Café. Am Ende des Metaverse. Und ganz am Anfang von etwas Neuem. Terminabsprache: https://lnkd.in/dPCTdFJc

Nachfragen dazu beantwortet.

Der neue 3D-Player von Apple macht genau das: weniger. Keine App. Keine Engine. Kein Aufwand. Nur dein Modell. Und Raum. Das hier ist kein Konzeptbild. So sieht es aus, wenn eine Industriepumpe im… | Gerhard Schröder
Der neue 3D-Player von Apple macht genau das: weniger. Keine App. Keine Engine. Kein Aufwand. Nur dein Modell. Und Raum. Das hier ist kein Konzeptbild. So sieht es aus, wenn eine Industriepumpe im Safari-Browser landet, als live gerendertes 3D-Modell, direkt in der Apple Vision Pro. Und das dank dem neuen <Model> 3D-Web-Viewer von Apple. Warum das wichtig ist? Weil dein Produkt nun ohne App-Installation, ohne VR-Umweg, ohne Entwicklerteam direkt über deine Website in 3D erscheinen kann. Ich habe zum WWDC-Feature <Model> ein kurzes Video gemacht: https://lnkd.in/dkNKBt2w Heute ein Follow-Up auf drei Fragen, die mir nach meinem gestrigen Beitrag gestellt wurden: 1️⃣ Wieso überhaupt ein neuer Player? Weil der alte Model-Viewer von Google zu technisch war. Apple setzt jetzt auf einen UX-freundlichen Standard-Player mit Fokus auf einfache Einbindung, bessere Performance und klarere Nutzerführung. 2️⃣ Was bringt das meinem Unternehmen? Du brauchst keine App, keine Game Engine, keine Agentur mit Spezial-Werkzeugkasten. Ein 3D-Modell im USDZ-Format reicht und es läuft direkt im Safari. Bald auch in anderen Browsern. 3️⃣ Was wird dadurch für Kunden leichter? Weniger Hürden. Mehr Erlebnis. Dein Produkt kann ab sofort direkt im Web in 3D betrachtet werden – auch mobil. Kein Download. Kein Plugin. Nur ein Klick. Für viele Marketingteams ist das der Einstieg ins OpenUSD-Web… für uns bei viSales GmbH ist es ein wichtiger Schritt, um 3D einfach und zugänglich zu machen. Wenn du ein Modell hast – und wissen willst, wie es sich im Browser räumlich anfühlt, sag Bescheid. Wir machen das sichtbar. Deine CAD-Datei. Unser KnowHow. Lass uns rausfinden, was daraus werden kann. Zoom-Call / Termin: https://lnkd.in/dxN7uHJT

"Probleme" mit 3D-Dateien.

Der Weg zur 3D-Datei für alle Zwecke: OpenUSD & .usdz
Du willst deine Produkte in 3D erlebbar machen? Vielleicht sogar direkt in Augmented Reality (AR) zeigen, ohne App-Installation, direkt per QR-Code? Klingt nach Zukunftsmusik? Ist es nicht. Die gute Nachricht: Es geht.

Private Gedanken zum Ausklang

Ich bin ja ALT, aber die Idee vom Internet ist NOCH ÄLTER.

#hypertext #docuverse | Gerhard Schröder
Was hat Xanadu mit dem DOCUVERSE zu tun? Xanadu, klar, das ist der wunderbare Musikfilm mit der Olivia Newton John und Gene Kelly doch mir geht es um eigentlich um das “andere Xanadu” von Ted Nelson: Xanadu ist ein 1960 gegründetes #Hypertext-Projekt von Ted Nelson; durch das nach dem legendären Ort Xanadu benannte Projekt sollte das #Docuverse, eine universale Bibliothek mit zahllosen miteinander vernetzten Dokumenten, entstehen. Das Hypertext-Konzept von Xanadu ist vergleichsweise komplex; beispielsweise ist ein Transklusions-Mechanismus vorgesehen, mit dem Teile aus anderen Objekten nahtlos in ein Dokument eingebunden werden können. Darüber hinaus war in Xanadu auch immer ein Abrechnungsmodell vorgesehen, ähnlich den neueren Ansätzen des Micropayments. Mehr dazu: https://lnkd.in/eyw5Bm9V Nelsons konzeptuelle Ideen für Xanadu beeinflussten gleichermaßen Tim Berners-Lee bei der Entwicklung des World Wide Web wie auch Ward Cunningham bei seinem Wiki-Konzept. Alle heute verbreiteten Umsetzungen des Hypertext-Konzepts sind funktionale Teilmengen von Nelsons Xanadu. Die dauerhafte, unlöschbare Speicherung alter Versionen von Dokumenten findet man heute im Freenet Peer-to-Peer-Netzwerk in Form von dessen SSK-Adressen. Es ist unklar, ob diese von Xanadu inspiriert sind. Auf dieses Thema bin ich gestoßen, nachdem ich das Video noch einmal gesehen habe: https://lnkd.in/e2u8rDeq Ist eines meiner Best-Of-Videos auf YouTube, neben “Good Morning”, ebenfalls mit Gene Kelly... Vielleicht was für Kai Heddergott und Sascha Pallenberg 潘賞世?

Rückbesinnung auf frühere Jahre...

Zwischen Stoffen, Scannern und Simulationen Als ich vor über 25 Jahren meine Ausbildung im Bereich Modedesign abschloss, war ich ein Unikum: Der einzige Mann unter knapp 30 Frauen – und wohl der… | Gerhard Schröder
Zwischen Stoffen, Scannern und Simulationen Als ich vor über 25 Jahren meine Ausbildung im Bereich Modedesign abschloss, war ich ein Unikum: Der einzige Mann unter knapp 30 Frauen – und wohl der Einzige, der sich mehr für Nähroboter als für Stickrahmen interessierte. Was für viele damals Zukunftsmusik war, war für mich schon Realität: Ich designte Mode am Computer, nicht mit Bleistift und Papier. Mein Praktikum führte mich nicht an die Nähmaschine, sondern an einen CGI-Rechner, ausgestattet mit einem 16-Millionen-Farben-Scanner und beeindruckender Software. Ich entwarf digitale Stoffe, lange bevor “digital fashion” ein Trend wurde. Heute nutze ich mein Gespür für Farben, Formen und Bewegung im Bereich Augmented Reality – etwa bei der Inszenierung von Produkten oder der Entwicklung interaktiver AR-Erlebnisse. Die Fähigkeit zu präsentieren stammt aus meiner Ausbildung als Tanzlehrer. Und Programmieren? Das habe ich schon als Jugendlicher geliebt. Mit 16 hatte ich meine erste Firma - Klar, Papa hatte den Gewerbeschein. Drei scheinbar unterschiedliche Wege – heute ein klarer Mix in meinem Skillset. Und Ihr? Welche unerwarteten Stationen in Eurem Lebenslauf prägen heute Euren Beruf? -- Das Bild erstellte mit ChatGPT zu einem anderen Thema. War ein “Abfallprodukt”, welches mir jedoch gefiel 🤠

Damit nun genug Links. Im Juli stellt meine Agentur ein neues Produkt vor, gleich im Kombi mit einem Referenzkunden. Klar, es geht dann wieder um Sales mit visuellen Mitteln, um AR und OpenUSD.

Viele Grüße aus Velbert

Gerhard Schröder

PS: Ok, einen Podcast-Tipp habe ich doch noch. Mark Zimmermann erwähnte mich in einer Folge des heise-Podcasts "TNBT". Ruhm fürs Team der Agentur viSales GmbH!

Von der Pixar-Lampe bis zur 3D-Couch: Der Standard USD | Mark Zimmermann
Von der dreidimensionalen Schreibtischlampe bis zum digitalen Zwilling im Omniverse: Das Framework Universal Scene Description (USD) ist zentral bei der Arbeit mit 3D-Objekten und ein entscheidender Baustein für räumliches Computing. Die als USDZ-Dateien bereitgestellten virtuellen Objekte lassen sich nicht nur im VR-Headset betrachten, sondern auch mit iPhone und iPad – Apples Betriebssysteme liefern dafür bereits Unterstützung mit. PS: Der von mir viel erwähnte : Gerhard Schröder 🙏