<<

2081 Code-Kit. Tiblis/Georgien.

Die Programmierungs- und Datengeräte von Zaza Wachtang, ihr Code-Kit.

Alles was man zum Programmieren braucht, wenn man keinen Zugriff auf Netzwerkressourcen (Energie/Daten/Compute) hat.

Zaza Wachtang war vor dem Crash Systemintegratorin für individualisierte Consumer-Elektronik (Appliances). Sie entwarf Geräte für die gewünschten Anordnungen und mit den geforderten Leistungsmerkmalen. Sie stellte Komponenten zusammen und programmierte, bzw. konfigurierte die Systeme. Ob SmartHome oder Quadcopter, Pedelec-Sharing oder ThermoMax, alle Geräte enthalten Elektronik. Sie haben Spracherkennung und Gestensteuerung, Sensoren und Datenverarbeitung, Cloud-Anschluss und Stromversorgung, in immer wieder neuen Anordnungen und Konfigurationen. Zaza Wachtang war spezialisiert auf Outdoor- und Offgrid. Sie baute Systeme zusammen, die auch ohne allgegenwärtige Daten- und Compute-Netze funktionierten.

Dann kam der Crash.

Alle Netze fielen aus.

Nicht nur Strom, Wasser und mobiles Netz. Auch Rechenleistung war nicht mehr verfügbar, denn Compute-Leistung kam aus der Cloud. Alle Daten waren weg, weil sie online gespeichert waren. Geräte mit Sprachsteuerung waren nicht bedienbar. Und selbst wenn man auf lokale Gestensteuerung umschaltete, fehlte der situationsbewusste Wissensnavigator, der sich selbständig durch das Wissen der Welt wühlen konnte, um Information zu beschaffen.

Irgendwann wurde klar, dass die Krise länger dauern würde. Ein Jahr nach dem Crash gab es immer noch keine Netze. Normale Alltagsgeräte waren nicht benutzbar. Oft nicht einmal mit einer improvisierten Stromversorgung, denn fast alle verließen sich auf Netzwerke und Online-Dienste. Manche Kühlschränke kühlten nicht, weil sie Cloud-Komponenten zur Steuerung benutzten oder einfach nur deswegen, weil sie beim Hochfahren den Hersteller kontaktierten, um die Lizenz zu erneuern (Stichwort: Kitchen on Demand). Moderne Fahrräder bremsten nicht, weil seit dem Drive-by-wireless Trend der 60-er Jahre in der Bike-Branche keine Seilzüge mehr verbaut wurden und einige Softwarebibliotheken in Subkomponenten der Bremssysteme alle paar Wochen ihren Konfigurationserver kontaktierten, was niemand aufgefallen ist solange Netze allgegenwärtig waren. Pay-as-you-go Miet-Bikes gingen sowieso nicht ohne ihre Server.

Aber Wachtang hatte die Erfahrung und die Ausrüstung, um IT auch lokal zu betreiben, ohne Online-Netze. Sie konnte Geräte reparieren. Manche musste sie umprogrammieren. Bei anderen konnte sie ein Netz und die Server simulieren. Zaza Wachtang brachte die Sachen wieder in Gang. Das sprach sich herum.

Ein Jahr nach dem Crash betrieb sie das IT-Zentrum ROBOit. Sie reparierte mit ihrem Team nicht nur Geräte, sondern sie bewahrte auch IT-Hardware, Hardware-Designs, Software und Quellcodes. Durch den Erhalt der ROBOit Wissensbasis und die Konzentration von Infrastruktur um ROBOit trug sie wesentlich zur Überwindung der Krise in der Kaukasusregion bei.

Mit dieser Ausrüstung arbeitete Zaza:

- DIN A4 ePaper Display, fixiert zwischen einer transparenten Folie und einer Scheibe stabilen Kunststoffs. Das ePaper ist eigentlich falt- und rollbar. Aber da es keine Ersatzteile oder Ersatzgeräte mehr gibt, ist jedes funktionierende Gerät sehr wertvoll. Man versucht deshalb den Verschleiß zu minimieren. Das bedeutet in diesem Fall, das Paper nicht zu knicken. Wachtang verzichtet auch auf Multitouch, um das Papier zu schonen. Stattdessen ist am Rand des Papiers ein Gestenscanner montiert.

- Mehrere Multifunktions-Hubs (eKabel & drahtlos): kleine Boxen, die Verbindungen zwischen allen möglichen elektronischen Geräten herstellen. Ein Hub verbindet Display, Storage, Compute, Grok, Netz und Eingabegeräte. Er kann drahtlos kommunizieren. Das war vor dem Crash die Standardbetriebsart. Aber seit es keine allgegenwärtige Stromversorgung mehr gibt, ist der Kabelbetrieb praktischer, denn die Netzwerkfäden leiten nicht nur Daten, sondern auch Strom.

- Eine Speicherbank mit dem gesamten öffentlichen Wissen der Menschheit vor dem Crash und genügend freiem Platz. Ein Überbleibsel eines ihrer früheren Offgrid-Projekte. Die Daten sind jetzt Gold wert, denn darunter sind auch Bedienungsanleitungen, Schaltpläne und Software, die man zum Reparieren braucht.

- Ein Rechenwürfel für klassische Zahlen- und Datenverarbeitung mit 2.000 k x 10 TOps Leistung. Im Consumer-Bereich ist lokale Rechenleistung eher ungewöhnlich. Der Würfel stammt aus einem wissenschaftlichen Institut. Er hat ein 8x8 Netzfaden-Array für schnelle lokale Speicher.

- Ein professioneller Grokker: neuronale Netzwerk Hardware für verständnisorientierte Aufgaben, wie Spracherkennung, Daten-Segmentierung, Problem-Klassifizierung und automatische Modellierung. Eine Rarität aus dem Rechenzentrum eines Cloud-Service Anbieters aus Baku.

- Eine handelsübliche Hardware-Firewall, die man Fremdgeräten vorschaltet. Sie enthält spezialisierte Compute- und Grok-Elemente, die Simulationen, heuristische und inferenzielle Analysen machen, um aggressiven Traffic wegzufiltern. Das ist unbedingt nötig, da alle Geräte mit Web-Leben besiedelt sind. Immunsystem hin oder her. Das will man nicht auf den eigenen Geräten haben. Meistens sind diese virtuellen Lebensformen allerdings harmlos.

- Powerbank plus Ladekurbel, ein alter aber robuster Nanotube-Kondensator Akku mit genügend Power, um alle Komponenten für 14 Tage zu versorgen, bei einem typischen Consumer-Betrieb (einem Mix aus Netz-Recherche, Media-Benutzung, Game-Simulation, Sprach/Text-Erkennung). Die Rechenbank braucht eine eigene Stromversorgung, wenn sie über 0,1% ihrer Nominalleistung läuft, also wenn dauerhaft mehr als 2.000 der multi-TOps-Kerne aktiv sind.

- Eine 50 Jahre alte mechanische Einhandtastatur als Backup für den Gestenscanner. Die Tastatur hat einen modernen Adapter mit Netzfaden-Schnittstelle.

- Etwa 100 Netzfäden verschiedener Länge, von 10 cm bis 10 Meter.

- Ein improvisierter Netzfaden-Splicer ohne integrierten 3D-Drucker. Das Gerät verbindet wiederbenutzte Stecker mit Fäden, statt selbst neue Stecker direkt auf den Faden zu drucken.

- Einige 10 TB-Sticks, der damalige Standard bei Wechselspeichern. Die Sticks sind kleine Röhrchen, zwei Zentimeter lang und zwei Millimeter dick. Gerade so groß, dass man sie noch gut handhaben kann. Sie haben den gleichen Stecker, wie die Netzfäden. Die Sticks sind eigentlich Netzwerk-Speicher (NAS: Network Attached Storage), die in den Stecker integriert sind.

2090 Patent für Adaptive Zusammenfassung.

Dynamische adaptive Zusammenfassung von sequenziellen Medien. Mit anderen Worten: Filme durchblättern wie ein Buch. KI erzeugt in Echtzeit eine Vorschau mit Text, Ton und Video. Der Detailgrad wird an die Scrollgeschwindigkeit angepasst. Bei Bedarf auch spoilerfrei.

Während man durch den Film blättert, wird eine Zusammenfassung als Kurzfilm abgespielt. Wichtige Szenen werden gekürzt. Unwichtige Szenen entfallen. Originalmaterial wird ersetzt durch künstlich erzeugte Kurzclips.

Die Geschwindigkeit kann sogar dynamisch variiert werden. Man kann also durch den Film navigieren und sieht immer eine Kurzfassung der aktuellen Passage, die sich automatisch an die Scrollgeschwindigkeit anpasst. Beim traditionellen Blättern durch einen Film wurde bisher zumindest der Ton pausiert und vom Video blieben nur zufällige Einzelbilder übrig. Mit der neuen adaptiven Zusammenfassung wird die Kurzform zum Erlebnis. Egal ob als 10 Minuten Kurzfilm, als 3 Minuten Trailer oder als 10 Sekunden Zusammenfassung. Man bekommt die wesentlichen Inhalte und Stimmungen. Später kommt sogar eine automatische Handlungsverschleierung zur Spoilervermeidung dazu.

Anfang der Zwanzigerjahre änderte sich das Konsumverhalten bei seriellen Medienformaten. Selbstbestimmter On-Demand Konsum löste die fremdbestimmten Programmmedien ab. Für ein Jahrhundert hatten Sender mit vorgefertigten Programmplänen die Medienauswahl dominiert. Konsumenten konnten einen Sender wählen, mussten dann aber dem fremdbestimmten Ablauf folgen – oder den Sender wechseln. Das änderte sich im frühen 21. Jahrhundert. Streaming über Datennetze ermöglichte eine individuelle Inhaltsauswahl. Die Konsumenten konnten endlich selbst bestimmen, was sie sehen oder hören wollten. Ab 2025 wurden mehr Inhalte gestreamt als gesendet.

Konsumenten mussten nun aber selbst auswählen. Gleichzeitig stiegen die Ansprüche. Früher gab man sich mit der Auswahl des Senders zufrieden und nahm das vorgefertigte Programm hin, auch wenn es nicht optimal war. In den Zeiten des Streamings musste man selbst ein möglichst gutes Programm finden, für sich und für andere Zuschauer der modernen Kleinfamilie.

Hilfe bei der Auswahl der richtigen Inhalte gab es reichlich, von traditionellen Inhaltsangaben und Marketingmaterial ("Trailer") bis zu kuratierten Empfehlungslisten und Spartenkanälen. Dann kamen statistisch generierte individuelle Programmvorschläge und KI-basierte Listen. Aber das sind im Wesentlichen Vorschläge. Auswählen mussten die Konsumenten trotzdem selbst.

Für Musik-Streaming funktioniert die automatische statistisch-gestützte Auswahl ähnlicher Stücke sehr gut. Der Streaming-Service lernt die Vorlieben und kann aus unzähligen Musikstücken die Passenden auswählen.

Bei Filmen und Filmserien ist es anscheinend viel schwieriger Filme zu finden, die den individuellen Geschmack treffen. Deshalb entwickelt sich die Filmbranche anders als die Musikbranche mit ihren automatischen Playlists. Video unterstützt stattdessen die manuelle Auswahl durch die neue Technik der adaptiven Zusammenfassung.

Die Patentbehörden der größten Märkte, in China, Europa und in der amerikanischen Handelsunion, erteilen eine Gruppe von Patenten für die KI-basierte adaptive Medienzusammenfassung. Die Schutzrechte beziehen sich nicht nur auf die technische Realisierung, sondern auch auf die Inhalte. Automatisch erstellte Zusammenfassungen werden in Europa und Nordamerika als eigene Werke klassifiziert. Das ist möglich, weil die Zusammenfassungen vollständig künstlich erzeugt werden können, ohne Daten der Originalwerke zu benutzen. Die Zusammenfassungen basieren nur auf den Ideen der Vorlagen, nicht auf Inhalten. Sie benutzen keine der ursprünglichen Video- oder Audio-Daten direkt, sondern nur Beschreibungen der einzelnen Elemente. Auch die Abbildungen von Personen und Designs, vor allem von Medienstars und IP basieren auf frei verfügbaren Daten, die angepasst oder erstellt werden, um dem Stil des Originalwerks zu entsprechen, ohne dessen Daten zu benutzen.

Der Weg zur adaptiven Zusammenfassung ging über viele Zwischenschritte und Vorläufertechnologien, angefangen mit Texterkennung und automatisch erzeugten Untertiteln um 2020. Ein wichtiger Beitrag zur Szenenanalyse kam aus dem Werbebereich mit Objekterkennung und -klassifikation für Werbeoverlays und Produktplatzierung. Dann wurden statische, aber immerhin automatisch generierte Handlungszusammenfassungen für Blinde entwickelt. In den 40er Jahren des 21. Jahrhunderts zeigte die Text2video-Forschung brauchbare Ergebnisse, die bald zu automatisierten Verfilmungen von Drehbüchern führte. Sogar AAA-Content konnte dann in den 50er Jahren vollständig künstliche KI-erzeugte Schauspieler benutzen und in den 60er Jahren erreichte auch die komplette Szenengenerierung aus Textbeschreibungen ein hohes Qualitätsniveau. Die Disziplin "KI-basiertes Inhaltsverständnis" hatte in den 30er Jahren erste große Erfolge gezeigt, allerdings nur für Spezialfälle. Dann stagnierte der Fortschritt. Erst der Paradigmenwechsel der 50er Jahre vom selbstoptimierenden Deep-Learning zum kontextgestützten rückgekoppelten Lernen in selbstmodifizierenden Clustern führte zu einem qualitativen Sprung beim Inhaltsverständnis.

Dann kam der Crash und mit dem Zusammenbruch der Content-Industrie verschwand auch der Bedarf für adaptive Zusammenfassung zur Unterstützung der Inhaltsauswahl. Die meisten Menschen mussten sich um Grundbedürfnisse kümmern, um ihr Überleben und das ihrer Familie zu sichern. Ein überwältigendes Medianangebot war für lange Zeit kein Thema. Die meisten Netze waren sowieso nicht verfügbar. Diese Phase dauerte je nach Region zwischen 10 und 30 Jahren.

In einigen Regionen erholte sich die Wirtschaft schon in den späten 80er Jahren. Damit erschien in den Netzen auch wieder ein großes Medianangebot, anfangs vor allem pre-Crash Produktionen. Mit der Wiederherstellung der Netze wurde auch das KI Know-how reaktiviert. Hardware und vor allem günstige Rechenleistung brauchte etwas länger. In den frühen 90ern potenzierte sich das Medienangebot schließlich durch vollständig automatisierte Produktionen, die mittels KI-gestützter Roman-zu-Drehbuch Konvertierung und automatischer Szenenvisualisierung alle textbasierten Romane als Videoinhalte verfügbar machten.

In den 90ern erholt sich die Weltwirtschaft. Sowohl Hardware als auch AIware sind nun bereit zum Einsatz der adaptiven Zusammenfassung von sequentiellen Medien im großen Stil. Eine Technik basierend auf dem neuen patentierten Responsive Ontology Sequence Assembly Model - ROSAM.

Auch individuell erstellte Varianten sind nun möglich. Neben den klassischen – automatisch erstellten – Produktionen werden vor allem individualisierte Medien konsumiert. Individualisierte Medien sind gezielt auf die Vorlieben einzelner Zuschauer zugeschnitten. Sie orientieren sich meistens an vorgegebenen Storylines und Themen, aber Handlungsdetails, Stil und Nebenhandlungen werden so eingestellt, dass das Produkt genau den individuellen Vorstellungen entspricht. Die Zeiten, in denen man sich an Kleinigkeiten gestört hat, sind vorbei.

Dabei geht es vor allem um Filme, sowohl traditionelle passive als auch interaktive Filme bis hin zu Games. Aber natürlich auf um Texte, in Schrift und Ton, wobei die Grenzen zwischen Buch, Hörbuch, animiertem Comic und Film fließend sind.

Weil diese individualisierten Inhalte in Echtzeit produziert und dabei interaktiv variiert werden können, sind alle Filme verschieden. Die Ausgestaltung ist abhängig von den Konsumenten, der Zeit und Zufallswerten. Kein Medieninhalt gleicht dem anderen. Die Individualisierung is bald so gut, dass die Konsumenten von – aus ihrer Sicht –"fantastisch guten" Medien überrollt werden. Ein neues Suchtverhalten entsteht: Media FOMO, die Angst einen großartigen Film oder das perfekte Game zu verpassen. Damit einher geht oft das Greedy Media Collector Syndrom (GMCS) bei Leuten, die Exabyte an Medien sammeln, weil "alle so gut sind". Diese Sammelleidenschaft wird dadurch unterstützt, dass Sammler mithilfe der dynamischen adaptiven Zusammenfassung jederzeit einen individuellen Überblick über ihre perfekten individuell erstellten Medien bekommen können.

Vor Media FOMO und GMCS kann man sich mit Memefiltern schützen – oder mit der Erkenntnis, dass es schon immer viel mehr gute Inhalte gab als man konsumieren konnte und dass sich eigentlich nichts geändert hat seit den Tagen von Doomscrolling und Videohopping. All diese Medieninhalte sind – egal wie großartig und perfekt – letztlich nicht relevant für das reale Leben.

>>