<<

2081 Code-Kit. Tiblis/Georgien.

Die Programmierungs- und Datengeräte von Zaza Wachtang, ihr Code-Kit.

Alles was man zum Programmieren braucht, wenn man keinen Zugriff auf Netzwerkressourcen (Energie/Daten/Compute) hat.

Zaza Wachtang war vor dem Crash Systemintegratorin für individualisierte Consumer-Elektronik (Appliances). Sie entwarf Geräte für die gewünschten Anordnungen und mit den geforderten Leistungsmerkmalen. Sie stellte Komponenten zusammen und programmierte, bzw. konfigurierte die Systeme. Ob SmartHome oder Quadcopter, Pedelec-Sharing oder ThermoMax, alle Geräte enthalten Elektronik. Sie haben Spracherkennung und Gestensteuerung, Sensoren und Datenverarbeitung, Cloud-Anschluss und Stromversorgung, in immer wieder neuen Anordnungen und Konfigurationen. Zaza Wachtang war spezialisiert auf Outdoor- und Offgrid. Sie baute Systeme zusammen, die auch ohne allgegenwärtige Daten- und Compute-Netze funktionierten.

Dann kam der Crash.

Alle Netze fielen aus.

Nicht nur Strom, Wasser und mobiles Netz. Auch Rechenleistung war nicht mehr verfügbar, denn Compute-Leistung kam aus der Cloud. Alle Daten waren weg, weil sie online gespeichert waren. Geräte mit Sprachsteuerung waren nicht bedienbar. Und selbst wenn man auf lokale Gestensteuerung umschaltete, fehlte der situationsbewusste Wissensnavigator, der sich selbständig durch das Wissen der Welt wühlen konnte, um Information zu beschaffen.

Irgendwann wurde klar, dass die Krise länger dauern würde. Ein Jahr nach dem Crash gab es immer noch keine Netze. Normale Alltagsgeräte waren nicht benutzbar. Oft nicht einmal mit einer improvisierten Stromversorgung, denn fast alle verließen sich auf Netzwerke und Online-Dienste. Manche Kühlschränke kühlten nicht, weil sie Cloud-Komponenten zur Steuerung benutzten oder einfach nur deswegen, weil sie beim Hochfahren den Hersteller kontaktierten, um die Lizenz zu erneuern (Stichwort: Kitchen on Demand). Moderne Fahrräder bremsten nicht, weil seit dem Drive-by-wireless Trend der 60-er Jahre in der Bike-Branche keine Seilzüge mehr verbaut wurden und einige Softwarebibliotheken in Subkomponenten der Bremssysteme alle paar Wochen ihren Konfigurationserver kontaktierten, was niemand aufgefallen ist solange Netze allgegenwärtig waren. Pay-as-you-go Miet-Bikes gingen sowieso nicht ohne ihre Server.

Aber Wachtang hatte die Erfahrung und die Ausrüstung, um IT auch lokal zu betreiben, ohne Online-Netze. Sie konnte Geräte reparieren. Manche musste sie umprogrammieren. Bei anderen konnte sie ein Netz und die Server simulieren. Zaza Wachtang brachte die Sachen wieder in Gang. Das sprach sich herum.

Ein Jahr nach dem Crash betrieb sie das IT-Zentrum ROBOit. Sie reparierte mit ihrem Team nicht nur Geräte, sondern sie bewahrte auch IT-Hardware, Hardware-Designs, Software und Quellcodes. Durch den Erhalt der ROBOit Wissensbasis und die Konzentration von Infrastruktur um ROBOit trug sie wesentlich zur Überwindung der Krise in der Kaukasusregion bei.

Mit dieser Ausrüstung arbeitete Zaza:

- DIN A4 ePaper Display, fixiert zwischen einer transparenten Folie und einer Scheibe stabilen Kunststoffs. Das ePaper ist eigentlich falt- und rollbar. Aber da es keine Ersatzteile oder Ersatzgeräte mehr gibt, ist jedes funktionierende Gerät sehr wertvoll. Man versucht deshalb den Verschleiß zu minimieren. Das bedeutet in diesem Fall, das Paper nicht zu knicken. Wachtang verzichtet auch auf Multitouch, um das Papier zu schonen. Stattdessen ist am Rand des Papiers ein Gestenscanner montiert.

- Mehrere Multifunktions-Hubs (eKabel & drahtlos): kleine Boxen, die Verbindungen zwischen allen möglichen elektronischen Geräten herstellen. Ein Hub verbindet Display, Storage, Compute, Grok, Netz und Eingabegeräte. Er kann drahtlos kommunizieren. Das war vor dem Crash die Standardbetriebsart. Aber seit es keine allgegenwärtige Stromversorgung mehr gibt, ist der Kabelbetrieb praktischer, denn die Netzwerkfäden leiten nicht nur Daten, sondern auch Strom.

- Eine Speicherbank mit dem gesamten öffentlichen Wissen der Menschheit vor dem Crash und genügend freiem Platz. Ein Überbleibsel eines ihrer früheren Offgrid-Projekte. Die Daten sind jetzt Gold wert, denn darunter sind auch Bedienungsanleitungen, Schaltpläne und Software, die man zum Reparieren braucht.

- Ein Rechenwürfel für klassische Zahlen- und Datenverarbeitung mit 2.000 k x 10 TOps Leistung. Im Consumer-Bereich ist lokale Rechenleistung eher ungewöhnlich. Der Würfel stammt aus einem wissenschaftlichen Institut. Er hat ein 8x8 Netzfaden-Array für schnelle lokale Speicher.

- Ein professioneller Grokker: neuronale Netzwerk Hardware für verständnisorientierte Aufgaben, wie Spracherkennung, Daten-Segmentierung, Problem-Klassifizierung und automatische Modellierung. Eine Rarität aus dem Rechenzentrum eines Cloud-Service Anbieters aus Baku.

- Eine handelsübliche Hardware-Firewall, die man Fremdgeräten vorschaltet. Sie enthält spezialisierte Compute- und Grok-Elemente, die Simulationen, heuristische und inferenzielle Analysen machen, um aggressiven Traffic wegzufiltern. Das ist unbedingt nötig, da alle Geräte mit Web-Leben besiedelt sind. Immunsystem hin oder her. Das will man nicht auf den eigenen Geräten haben. Meistens sind diese virtuellen Lebensformen allerdings harmlos.

- Powerbank plus Ladekurbel, ein alter aber robuster Nanotube-Kondensator Akku mit genügend Power, um alle Komponenten für 14 Tage zu versorgen, bei einem typischen Consumer-Betrieb (einem Mix aus Netz-Recherche, Media-Benutzung, Game-Simulation, Sprach/Text-Erkennung). Die Rechenbank braucht eine eigene Stromversorgung, wenn sie über 0,1% ihrer Nominalleistung läuft, also wenn dauerhaft mehr als 2.000 der multi-TOps-Kerne aktiv sind.

- Eine 50 Jahre alte mechanische Einhandtastatur als Backup für den Gestenscanner. Die Tastatur hat einen modernen Adapter mit Netzfaden-Schnittstelle.

- Etwa 100 Netzfäden verschiedener Länge, von 10 cm bis 10 Meter.

- Ein improvisierter Netzfaden-Splicer ohne integrierten 3D-Drucker. Das Gerät verbindet wiederbenutzte Stecker mit Fäden, statt selbst neue Stecker direkt auf den Faden zu drucken.

- Einige 10 TB-Sticks, der damalige Standard bei Wechselspeichern. Die Sticks sind kleine Röhrchen, zwei Zentimeter lang und zwei Millimeter dick. Gerade so groß, dass man sie noch gut handhaben kann. Sie haben den gleichen Stecker, wie die Netzfäden. Die Sticks sind eigentlich Netzwerk-Speicher (NAS: Network Attached Storage), die in den Stecker integriert sind.

2090 Patent für Adaptive Zusammenfassung.

Dynamische adaptive Zusammenfassung von sequenziellen Medien. Mit anderen Worten: Filme durchblättern wie ein Buch. KI erzeugt in Echtzeit eine Vorschau mit Text und Video. Bei Bedarf auch spoilerfrei.

Während man durch den Film blättert, wird eine Zusammenfassung als Kurzfilm abgespielt. Wichtige Szenen werden gekürzt. Unwichtige Szenen entfallen. Originalmaterial wird ersetzt durch künstlich erzeugte Kurzclips.

Die Geschwindigkeit kann sogar dynamisch variiert werden. Man kann also durch den Film navigieren und sieht immer eine Kurzfassung der aktuellen Passage, die sich automatisch an die Scollgeschwindigkeit anpasst. Beim traditionellen Blättern durch einen Film wurde bisher zumindest der Ton pausiert und vom Video blieben nur zufällige Einzelbilder übrig. Mit der neuen adaptiven Zusammenfassung wird die Kurzform zum Erlebnis. Egal ob als 10 Minuten Kurzfilm, als 3 Minuten Trailer oder als 10 Sekunden Zusammenfassung. Man bekommt die wesentlichen Inhalte und Stimmungen. Später kommt sogar eine automatische Handlungsverschleierung zur Spoilervermeidung dazu.

Anfang der Zwanzigerjahre änderte sich das Konsumverhalten bei seriellen Medienformaten. Selbstbestimmter On-Demand Konsum löste die fremdbestimmten Programmmedien ab. Für ein Jahrhundert hatten Sender mit vorgefertigten Programmplänen den Medienkonsum dominiert. Konsumenten konnten einen Sender wählen, mussten dann aber dem fremdbestimmten Ablauf folgen – oder den Sender wechseln. Das änderte sich im frühen 21. Jahrhundert. Streaming über Datennetze ermöglichte eine individuelle Inhaltsauswahl. Die Konsumenten konnten endlich selbst bestimmen, was sie sehen oder hören wollten. Ab 2025 wurden mehr Inhalte gestreamt als gesendet.

Konsumenten mussten nun aber selbst auswählen. Ohne Auswahl gab es kein Programm. Gleichzeitig stiegen die Ansprüche. Früher gab man sich mit der Auswahl des Senders zufrieden und nahm das vorgefertigte Programm hin auch wenn es nicht optimal war. In den Zeiten des Streamings musste man selbst ein möglichst gutes Programm finden, für sich und für andere Zuschauer der modernen Kleinfamilie.

Hilfe bei der Auswahl der richtigen Inhalte gab es reichlich, von traditionellen Inhaltsangaben und Marketingmaterial ("Trailer") bis zu kuratierten Empfehlungslisten und Spartenkanälen. Dann kamen statistisch generierte individuelle Programmvorschläge und KI-basierte Listen. Aber das sind im Wesentlichen Vorschläge. Auswählen mussten die Konsumenten trotzdem selbst.

Für Musik-Streaming funktioniert die automatische statistisch-gestützte Auswahl ähnlicher Stücke sehr gut. Der Streaming-Service lernt die Vorlieben und kann aus unzähligen Musikstücken die Passenden auswählen.

Bei Filmen und Filmserien ist es anscheinend viel schwieriger Filme zu finden, die den individuellen Geschmack treffen. Deshalb entwickelt sich die Filmbranche anders als die Musikbranche mit ihren automatischen Playlists. Video unterstützt stattdessen die manuelle Auswahl durch die neue Technik der adaptiven Zusammenfassung.

Die Patentbehörden der größten Märkte, in China, Europa und in der amerikanischen Handelsunion, Erteilen eine Gruppe von Patenten für die KI-basierte adaptive Medienzusammenfassung. Die Schutzrechte beziehen sich nicht nur auf die technische Realisierung, sondern auch auf die Inhalte. Automatisch erstellte Zusammenfassungen werden als eigene Werke klassifiziert. Das ist möglich, weil die Zusammenfassungen vollständig künstlich erzeugt werden können, ohne Daten der Originalwerke zu benutzen. Die Zusammenfassungen basieren nur auf den Ideen der Vorlagen, nicht auf Inhalten. Sie benutzen keine der ursprünglichen Video- oder Audio-Daten direkt, sondern nur Beschreibungen der einzelnen Elemente. Auch die Abbildungen von Personen und Designs, vor allem von Medienstars und IP basieren auf frei verfügbaren Daten, die angepasst oder erstellt werden, um dem Stil des Originalwerks zu entsprechen, ohne dessen Daten zu benutzen.

Der Weg zur adaptiven Zusammenfassung geht über viele Zwischenschritte und Vorläufertechnologien, angefangen mit Texterkennung und automatisch erzeugten Untertiteln um 2020. Ein wichtiger Beitrag zur Szenenanalyse kommt aus dem Werbebereich mit Objekterkennung und -klassifikation für Werbeoverlays und Produktplatzierung. Dann werden statische, aber immerhin automatisch generierte Handlungszusammenfassungen für Blinde entwickelt. In den 40er Jahren des 21. Jahrhunderts zeigt die Text2video-Forschung brauchbare Ergebnisse, die bald zu automatisierten Verfilmungen von Drehbüchern führen. Sogar AAA-Content kann dann in den 50er Jahren vollständig künstliche KI-generierte Schauspieler benutzen und in den 60er Jahren erreicht auch die komplette Szenengenerierung aus Textbeschreibungen ein hohes Qualitätsniveau. Die Disziplin "KI-basiertes Inhaltsverständnis" hatte in den 30er Jahren erste große Erfolge gezeigt, allerdings nur für Spezialfälle. Dann stagnierte der Fortschritt. Erst der Paradigmenwechsel der späten 60er Jahre vom selbstoptimierenden Deep-Learning zum kontextgestützten rückgekoppelten Lernen in selbstmodifizierenden Clustern führt zu einem qualitativen Sprung beim Inhaltsverständnis.

Dann kommt der Crash und mit dem Zusammenbruch der Content-Industrie verschwindet auch der Bedarf für adaptive Zusammenfassung zur Unterstützung der Inhaltsauswahl. Die meisten Menschen müssen sich um Grundbedürfnisse kümmern, um ihr Überleben und das ihrer Familie zu sichern. Ein Überwältigendes Medianangebot ist für lange Zeit kein Thema. Die meisten Netze sind sowieso nicht verfügbar. Diese Phase dauert je nach Region zwischen 10 und 30 Jahren.

In einigen Regionen erholt sich die Wirtschaft schon in den späten 80er Jahren. Damit erscheint in den dortigen Netzen auch wieder ein großes Medianangebot, anfangs vor allem pre-Crash Produktionen. Wo die Netze schnell wiederhergestellt werden, kann auch das KI Know-how reaktiviert werden. Hardware und vor allem Rechenleistung braucht etwas länger. In den frühen 90ern potenziert sich das Medienangebot schließlich durch vollständig automatisierte Produktionen, die mittels KI-gestützter Roman-zu-Drehbuch Konvertierung und automatischer Szenenvisualisierung alle textbasierten Romane als Videoinhalte verfügbar machen. Zur Jahrhundertwende erholen sich immer mehr Märkte und sowohl Hardware als auch AIware sind bereit zum Einsatz der adaptiven Zusammenfassung von sequentiellen Medien im großen Stil. Eine Technik basierend auf dem neuen patentierten Responsive Ontology Sequence Assembly Model - ROSAM.

>>