offSight - DBSV

offSight - DBSV

bringt junge blinde und sehbehinderte Menschen up to date

Transkript

Zurück zur Episode

00:00:03: Offside Seminare.

00:00:05: Offside and online.

00:00:11: Hallo und herzlich willkommen zur zweiten Runde unserer Seminarerei KI Verstehen und Clever nutzen!

00:00:15: Im letzten Modul ging es um das Thema, wie kann KI speziell blinden?

00:00:21: Alltagsbewältigungen helfen?

00:00:22: und da ist einiges zusammengekommen.

00:00:25: Es geht natürlich um Dinge wie Bilder beschreiben, Texte lesen Objekte und Produkte erkennen.

00:00:31: es geht auch darum wie man mit Mainstream KI also Google Gemini oder ChatGBT Bilder unter Umgebung beschreiben lassen kann.

00:00:39: Geht um KI Features von Sprachausgaben die dabei helfen können zum Beispiel eine unzugängliche App zu bedienen oder eine Website zusammenzufassen einen Zukunftsausblick Darüber, dass KI auch schon den Computer steuern kann.

00:00:51: Also zum Beispiel einen Mausklick ausführen kann da wo man mit der Tastatur nicht hinkommt.

00:00:55: Dann geht es um KI in klassischen Hilfsmitteln.

00:00:58: Wir stellen natürlich die Ray-Ban Matter Brille vor und ihre Funktionen.

00:01:03: Speziell geht es dann auch nochmal um die Apps OORION und ScribeMe, zwei brandaktuelle Apps, die wirklich seit wenigen Wochen erst auf dem Markt sind.

00:01:10: Und die eine Live-Wegbeschreibung ermöglichen also quasi wenn man unterwegs ist die Umgebung beschreiben können und auch zu Objekten führen können.

00:01:18: da gibt's dann auch ein Zwei Demos dazu.

00:01:22: Da die Episode sehr, sehr lang ist gibt es wieder Kapitelmarken.

00:01:25: Ich sage noch mal wie das funktioniert.

00:01:27: in den meisten Podcast-Apps gibt es im Miniplayer die Option Kapitel Marken wenn man die antippt also mit Doppeltipp.

00:01:33: dann werden dann die Kapitel angezeigt und wenn man da dann auf einen auf eine Textzeile tippt, dann wird die Passage in der Episode abgespielt.

00:01:41: Diese Option ist aber nicht immer sichtlich.

00:01:44: sofort also bei Apple ist das so dass man im Miniplayer diese Option aktivieren muss.

00:01:50: ich kann jetzt natürlich nicht für jede erdenkliche Podcast App das hier abdecken aber wenn man die nicht gleich findet durchaus mal durch den Bildschirm wischen und danach suchen.

00:01:57: Wenn alle Strecke reißen, kann man auch auf die Website gehen offsite.podig.io und dort in der Episode auf Kapitelmarken klicken.

00:02:05: dann gibt es unten auf der Seite eine Überschriftkapiteln marken und da findet man dann zeilenweise die Kapitel und kann die auch mit Enter gleich abspielen.

00:02:13: So ich übergebe an unseren Referenten Ben Hofer blinder Software uns KI-Experte.

00:02:19: Erstmal ein allgemeiner Überblick was kann die KI überhaupt im Bezug auf Zugänglichkeit?

00:02:26: KI hilft ja nicht nur uns als blinde und sehwendete Menschen, sondern ganz allgemein kommt KI in ganz vielen Anwendungen zum Einsatz die Zugänglichkeit verbessern.

00:02:39: Und da habe ich eine Liste, die bei Weiten nicht vollständig ist.

00:02:43: aber einfach mal ein paar Beispiele.

00:02:46: Leichte bzw.

00:02:47: einfache Sprache, KI-Anwendungen wie eben ChatGPT oder Google's Gemini können gut mit Texten umgehen Und die können auch Texte in einfache oder leichte Sprache umwandeln, wenn man ihnen die Anweisung dazu gibt und das entsprechend beibringt.

00:03:08: Die Regeln dazugibt.

00:03:11: Transkription ist ein Thema also... ...die Umwandlung von Audio in Text.

00:03:18: Das ist hilfreich für alle.

00:03:19: Beispielsweise habe ich das heute schon genutzt als ich einen Meeting transkribiert habe aber es ist besonders hilflich für Menschen mit Hörbehinderungen denn mittlerweile können wir fast in Echtzeit transkribieren.

00:03:34: Das heißt, ein Mensch mit Hörbehinderung kann in Echzeit fast mitverfolgen was um ihn rumgesprochen wird.

00:03:42: Objekteerkennungen – wir hatten das beim letzten Mal des Beispiels mit dem Hund die AI, die darauf trainiert ist bestimmte Objekten in Bildern zu erkennen.

00:03:55: Das geht natürlich noch viel weiter.

00:03:57: man kann nicht nur einen Objekt in dem Bild erkennen, sondern auch mehrere oder ganze Szenen beschreiben über diese Sprachmodelle die wir angesprochen haben im letzten Modul.

00:04:09: Das hilft auch allen aber es hilft besonders uns.

00:04:14: und das Thema Sprachausgaben ist noch ein Thema.

00:04:18: Die Stimmen, die sie alle nutzen in den Screenwiedern egal ob in Chores oder in NVIDIA oder in VoiceOver auf dem MacBook oder am iPhone da steckt heute in den meisten Fällen kaid bin.

00:04:36: Für Menschen mit Hörbehinderung gibt es auch Gebärdensprache, auch das wurde schon entwickelt.

00:04:42: ein Modell von Google, das nennt sich SignGemma.

00:04:46: also sign language heißt auf englisch Gebärdensprache und das Modell heißt im SignGema und ja dass ist eher eine Nische aktueller.

00:04:57: was startet versteht aktuell nur amerikanische Gebärdensprache, aber kann eben auch angepasst werden auf andere Gebärdensprachen.

00:05:07: Bei Gebärdsprachen gibt es ja auch verschiedene Sprachen.

00:05:11: Die Sprachausgaben sind auch nochmal ein schönes Beispiel.

00:05:15: um das Training ganz kurz noch mal zu rekapitulieren vom letzten Mal.

00:05:22: Um eine Stimme zu trainieren, werden auch wie bei den Bildern einen ganzen Haufen Daten gesammelt.

00:05:31: Ein Sprecher spricht hunderte besser tausende Sätze ein und die Sätze werden dann einzeln als Audiodatei gespeichert.

00:05:42: Und in der Textdatei gibt an welche Datei, also welche Audiodathei mit welchem Datainamen welchen Satz enthält.

00:05:53: Also beispielsweise kann es so aussehen, Audio I, so heißt die Datei und das den Satz den ich einspreche heißt eben heute ist Mittwoch oder so, oder Audio zwei.

00:06:04: Wie funktioniert KI?

00:06:07: Hier ist auch die Betonung wichtig und diese Audiodateien und die Textdateien werden dann vor allem gesagt an ein System gefüttert und dieses System macht das KI-Modell raus und trainiert die Stimme, die wir dann verwenden können um sie alles sprechen zu lassen was wir wollen.

00:06:31: Das Ganze können wir sogar Quelloffen tun und das ganze können wir auch, weil wir uns die Rechenleistung – wie ich schon sagte es ist große Datenmengen sind nötig – und Rechenleistungen.

00:06:46: Und die Rechanleistung können wir uns vom Computer an im Internet leihen also die brauchen wir nicht selber zu Hause haben, wir brauchen nicht große Server zuhause haben sondern wir können uns die.

00:07:02: Was gibt es jetzt für konkrete KI-Anwendungen, die unseren Alltag erleichtern?

00:07:09: Einige wurden im letzten Modul schon im Chat genannt.

00:07:13: Ich fange mal mit Be My Eyes an.

00:07:15: Be my eyes kennen viele als App über die man einen sehenden freiwilligen Helfer per Videoanwurf erreicht und der dann mittels das Smartphone Kamera uns helfen kann am Alltag und sagen kann, was vor uns ist.

00:07:35: Und sagen kann wo der Weg weiterführt, wann die Milch abläuft usw.

00:07:40: Seit im Jahr seit dem Jahr hierher gibt es jetzt dafür auch eine KI.

00:07:46: Anbindung also heißt eine Bildbeschreibung die Fotos oft erstaunlich gut und detailliert beschreibt.

00:07:56: Wir machen ein Foto mit der Kamera Die KI beschreibt das Bild natürlicher Sprache Und das Ganze funktioniert eben ohne menschlichen Helfer, aber nur um die Uhr.

00:08:11: Und besonders gut bei Szenenprodukte erkennen... Also was habe ich in der Hand?

00:08:18: Ist es eine Dose Tomaten oder ist es eine dose Pfirsiche?

00:08:23: Beschreiben was um einen rum passiert und so weiter.

00:08:29: Bei WMAIs liegen die Grenzen oft darin dass es nur eine Möglichkeit gibt, ein Foto aufzunehmen.

00:08:38: Das heißt die KI beschreibt immer alles.

00:08:41: Wenn ich jetzt nur die Dose beschreiben lassen will dann muss ich eben hoffen dass mir die KI diese Dose beschreibt und nicht den Raum um mich herum also die Wand oder die Oberfläche auf der die Dase steht.

00:08:59: manchmal sind die Beschreibungen ausführlich.

00:09:01: man mer sind interpretiert die KI auch was falsch.

00:09:07: Manchmal wird haluziniert.

00:09:08: Das habe ich auch schon angesprochen, also immer kritisch bleiben.

00:09:15: Es gibt die Möglichkeit, Folgefragen zu stellen bei BeamerEyes.

00:09:19: Dazu gibt es einen Schalter und weitere Fragen.

00:09:23: Nachdem er das Foto aufgenommen hat kann man jetzt der KI-Folgefragen stellen und auch Folgebotos aufnehmen.

00:09:36: kann man eben der KI auch spezielle Anweisungen geben für die Folgefotos.

00:09:41: Also beispielsweise mache ich das manchmal so, dass sich dann mit BMI-Eis was ausnehmen.

00:09:47: Eine Folgefrage stellt.

00:09:48: wenn ich jetzt sage Ich habe mehr Bewertdosen, die ich erkennen will und BMI Eis anweise zu sagen beschreibt mir ab jetzt nur noch die Aufschrift oder das Etikett auf der Dose die ich dir zeige.

00:10:08: Dann nutze ich eben den entsprechenden Schalter in der App auf dem iPhone oder auf dem Android-Smartphone, um ein weiteres Foto aufzumachen.

00:10:17: Und das weitere Foto wird aufgenommen und Be My Eyes beschreibt weil ich ihm die Anweisung gegeben habe nur doch das was ich eben möchte.

00:10:28: Natürlich kann auch die Anweisungen per Siri diktiert werden.

00:10:31: Das ist ein ganz normales Eingabefeld wie bei einer SMS Nachricht wie bei WhatsApp Und ja, das ist eben Be My Eyes mit den beiden Funktionen einen freiwilligen Anrufen per Videocall und des sogenannte Be My AI.

00:10:55: Also AI für Artificial Intelligence, für Künstliche Intelligenz.

00:11:02: Die Funktion Be My Ai, die im Prinzip nur einen Schalter bietet auf dem Bildschirm und der heißt dann Foto Aufnehmen.

00:11:13: Und dann errichtet man eben die Kamera auf das, was man beschrieben haben will und wie mein Eis beschreibt es Ganze.

00:11:22: Kommen wir zu einer weiteren Kategorie von Apps, die es gibt, von Anwendungen, die's gibt.

00:11:29: Darunter zählen, darunter fallen zum Beispiel Seeing AI, Envision oder Google's Lookout.

00:11:37: Diese Apps sind schon... lang da eigentlich auf dem Markt und die kann man eben für verschiedene Aufgaben nutzen.

00:11:46: Sing AI ist von Microsoft, es ist eine kostenfreie Anwendung, die auf dem iPhone jeder runterladen kann im App Store mittlerweile auch auf Android-Smartphones.

00:11:59: Die meisten werden sie auf dem Iphone nutzen.

00:12:02: Und Sing AI kann eben Texte erkennen Sowohl Dokumente erkennen als auch Live Texte erkennen.

00:12:13: Also kann die App anweisen, die Live Texterkennung zu starten und dann erkennt sie eben jeden Text der den ich ihr gebe auf denen nicht.

00:12:24: die Kamera war wichtig fast in Echtzeit, kann man sagen.

00:12:31: Die Dokumentenerkennung ist dann eher wie man sich, wie man einen Textscanner von früher kennt.

00:12:36: Ich habe mich da die Kamera auf eine Seite auf dem Blatt Papier oder ein Buch, oder auch eine Produktverpackung.

00:12:45: Ich krieg dann noch Anweisungen wie ich die Kamera halten muss damit möglichst der ganze Text drauf ist und nehme das Foto auf und kriege dann das Ergebnis präsentiert also den erkannten Text.

00:13:04: Signalei bietet eine Szenenbeschreibung, ich kann Personen erkennen, kann der KI vorher beibringen wie Gesichter aussehen, also Gesichter von Personen, von der Kanten Personen die dann erkannt wird.

00:13:22: Es gibt eine Farberkennung und eine Lichterkennung wobei die Lichterkannung wahrscheinlich gar nicht so mit KI arbeitet sondern dies einfach nur da und ist nützlich.

00:13:35: Die anderen Funktionen nutzen durchaus KI.

00:13:43: Die Szenenbeschreibung nutzt ähnliche Modelle oder eine ähnlichen Systeme im Hintergrund, wie im ChatGPT oder Be My Eyes.

00:13:58: Und die Texterkennung.

00:14:01: dazu kommt später noch was der Unterschied ist zwischen klassischer Texterkennen und KI-Texterkennungen.

00:14:11: Ich denke das singe er da eine Kombination aus beiden Nutzten und sich das Beste von beidem sozusagen nimmt.

00:14:19: Eine andere App, die es jetzt gibt ist Envision AI.

00:14:22: Envision AI kennen sicher auch manche.

00:14:27: Gehe ich jetzt gar nicht so näher darauf ein weil es ganz sehr ähnlich wie den AI unterscheidet sich nur im Aufbau der App und im Detail.

00:14:41: bei Envision ist es noch möglich Objekte zu erkennen.

00:14:45: Ich kann die KI, also ich kann die Objekterkennung starten und dann kann ich eben verschiedene Modi auswählen.

00:14:56: Ich möchte jetzt Türen erkennen, dann gibt die App den Ton aus, wenn eine Tür erkannt wird oder eben andere Objekte ein Stuhl oder auch ne Person oder so.

00:15:11: Oder ich möchte mir alle Objekten ansagen lassen wie die App kennt in Echtzeit dann geht das auch und das Ganze funktioniert auch offline, also am Handy ohne Internet.

00:15:27: Die App Google Lookout ist jetzt interessant für all diejenigen, die kein iPhone haben sondern ein Android Smartphone oder so ein Google-Smartphone oder in Samsung.

00:15:38: Das ganze hat eine Texterkennung natürlich integriert Eine Live-Texterkennungen wie bei Singer AI und Envision eine Dokumentenerkennung.

00:15:48: Die Objekterkennung ist hier ein bisschen ausführlicher, ein bisschen besser.

00:15:53: Und es gibt hier noch eine Spezialfunktion die nennt sich Lebensmittelverpackungen.

00:16:01: da erkennt die KI wirklich anhand des Barcodes aber nicht nur anhand das Barcode sondern auch an Hand des Etikettes um welches Lebensmittel es handelt und welche Dose um welche Verpackung und sagt dann Hersteller und Produktart und Produkt an.

00:16:23: die App sagt auch, wenn sie es eben nicht erkennt.

00:16:26: Dann drehen Sie die Verpackung so lange bis ihr kennt was da drauf ist.

00:16:34: Die Daten können aus dem Internet heruntergeladen werden Und somit ist diese Funktion auch ohne internet nutzbar Wenn man zum Beispiel keine Verbindung zum Internet hat oder auch so nicht alle Daten des Internets schicken möchte.

00:16:50: Alle die selbst nutzen KI, der Unterschied liegt in der Bedienbarkeit den Funktionen und ja den Qualität der Beschreibung Und auch in der persönlichen Präferenz.

00:17:04: also probieren sie einfach Apps aus.

00:17:07: Probieren Sie am iPhone am besten mal seeing AI aus Wenn es nur noch nicht gemacht haben, probieren Sie mal BMI-Eis aus Und probieren Sie mal Envision aus oder am Android-Smartphone eben Lookout.

00:17:26: Das sind jetzt alles englische Namen, wir haben auch die Rückmeldung das nicht alle so mit Angezismen gut zu wegkommen.

00:17:35: Ich werde das Ganze noch einmal in das Vorwurf posten und mit dem Vorwurf nochmal einen Beitrag haben Links.

00:17:48: Ein kurzer Exkurs habe ich da noch mal mit drin, weil wir ganz viel als Blinde und Sehbänderte auch über Texterkennung arbeiten.

00:18:01: Und da habe ich den Vergleich nochmal mit drin.

00:18:05: die klassische OCR, also Optical Character Recognition, also die Zeichenerkennung für die Texterkennungen im Vergleich zur Texterkennung mit KI, über KI-Bildbeschreibung.

00:18:23: Die klassische Texterkennung erkennt Texte immer zahlenweise.

00:18:28: Es funktioniert gut bei sauberen gedruckten Texten.

00:18:33: wenn ich ein sauber gedrucktes Dokument habe beispielsweise von der Behörde dann funktioniert diese zahlenweisen Erkennungen ganz gut denn da ist nicht viel was die Erkennen stört.

00:18:50: Die Erkennung ist, wie wir es im letzten Modul schon hatten sehr vorhersehbar.

00:18:56: Das Ganze scheitert.

00:18:57: aber wenn's zum Beispiel um Handschrift geht.

00:18:59: Handschift ist super flexibel die kann schön sein, die kann nicht schön sein.

00:19:10: Es gibt so viele Handschriften wie es Menschen gibt.

00:19:13: das heißt das ganze ist sehr unvorhersehbaar.

00:19:18: hier kommen wir mit dem klassischen System nicht so weit.

00:19:22: Auch bei schlechter Bildqualität komplexen Tabellen, komplexe Formularen mit komplexem Zusammenhängen und komplexer Schriftarten gibt es Tausende Millionen auf der Welt.

00:19:38: die können sehr unterschiedlich sein.

00:19:41: Hochglanzpapier mehrspaltiger Text wie zum Beispiel in Zeitschriften oder Zeitungen all das ist eine Herausforderung für klassische Texterkennung.

00:19:53: Und da kommt dann KI-basierte Erkennung eben ins Spiel, die geht weiter weil sie ist ja anhand von Mustern trainiert und anhand vom Vorlagen, anhand ganz vielen Eingaben.

00:20:07: und die KI ist in der Lage den Kontext zu erkennen nicht nur den Kontex zu erkennen sondern Anschriften so entziffern Beschriftungen auf Verpackungen eher zu lesen und eben gleichzeitig auch den Inhalt zusammenzufassen.

00:20:28: Also Apps wie Be My Eyes mit diesem Be My Eye Funktion, die erkennen nicht nur Text oder kennen nicht nur ein Bild sondern kann man auch anweisen Dinge zusammen zu fassen.

00:20:43: Denn die nutzen ja sozusagen ChatGP Team in der Grunde und ChatGPD kann gut mit Texten umgehen.

00:20:49: ChatGTT kann ich anweisen Texte zusammenzufassen.

00:20:57: Die Gefahr davon sind Halluzinationen, sprich die KI erfindet Sachen.

00:21:06: Wie äußert sich das?

00:21:08: Klassische Texterkennung kennen wir vom Scanner.

00:21:11: Ich glaube gerade Menschen, die schon länger ja blind oder siebel nutz sind, schon länger irgendwie als Scanner nutzen, Texterkennung nutzen können es zur Genüge von Vorlesystemen von Scanners.

00:21:24: Es wird ein Fehler gemacht bis hin zu bölligen Buchstabensalat, der nicht mehr zu entziffern ist wenn eben die voller Geschlecht ist.

00:21:36: Die KI neigt jetzt dazu nicht diesen Buchstaben-Salat auszugeben gerade wenn sie schlechte oder unzureichende Anweisungen bekommen hat sondern sie neigt dazu fehlendes Zu ergänzen.

00:21:51: also ja wie ich sagte im letzten Modul die KI basiert auf Wahrscheinlichkeiten.

00:21:57: das heißt die KI fragt sich Im Namen für uns Zeichen, was ist denn das wahrscheinlichste nächste Wort?

00:22:05: Wenn es nicht erkennt.

00:22:07: Also gerade wenn irgendwie Vorlagen und deutlich sind oder oder oder KI gibt die wahrscheinlichste Antwort.

00:22:16: Das heißt KI wird nicht den Buchstabensalat ausgeben sondern vielleicht Dinge dazu erfinden, die gar nicht in der Vorlage stehen.

00:22:30: Das Ganze kann eine Chance sein für bessere Lesbarkeit Wenn man jetzt sagt, na ja.

00:22:36: Mir ist es nicht so wichtig, dass das Buchstabe für Buchstabbe genau das ist was in der Vorlage steht.

00:22:43: Das Ganze kann ein riesengroßes Risiko sein wenn eben genau das Wichtig ist.

00:22:47: also wenn ich jetzt einen Brief habe von einer Behörde, wenn ich eine Beipackzettel hab oder wenn Ich eine Rechnung habe und möchte auf die Rechnungen wissen Was war denn der Endbetrag?

00:23:00: Dann ist eine nur KI.

00:23:04: Erkennung kann dann dazu führen, dass der Betrag falsch ist und wir es nicht merken.

00:23:10: Bei einer klassischen Erkennen bei der klassischen Text-Erkennungen werde den Betrag eher nicht vorhanden weil er nicht erkannt wird oder abgeschnitten ja oder auch Bilder haben.

00:23:23: auch das gibt's klar.

00:23:25: aber wichtig ist einfach die KI neigt dazu unlesbares eher zu ergänzen.

00:23:33: KI-Systeme, die gute Anweisungen bekommen haben oder diejenigen, die KI und klassische OCR kombinieren.

00:23:41: Und sich von beiden das positive sozusagen, das gute sozusagen mit daraus nehmen.

00:23:48: Die Systeme sind dann in der Lage auch den Hinweis zu geben dass irgendwas nicht korrekt erkannt wurde.

00:24:00: Es gibt jetzt natürlich auch die Möglichkeit sogenannte MainstreamKI, also die KI, die nicht für uns entwickelt wurde sondern für alle als Hilfsmittel zu nutzen.

00:24:12: ChatGPT zum Beispiel hat einen eingebauten Voice Mode, einen eingebauten Sprachmodus mit dem man ganz einfach mit ChatGPD sprechen kann und dem auch Fragen stellen kann genauso wie man eben schreiben kann und seine Kamera auf dem iPhone Teilen kann.

00:24:39: Das funktioniert dann wie in einem Video Anruf, ich starte diesen Anrufe mit ChatchiPity und teile meine Kamera mit einer dafür vorgesehenen Schaltfläche und dann kann ich Fragen zu meiner Umgebung stellen weil Chachipiti dann eben alles sieht was meine Kamera am iPhone aufnimmt.

00:25:08: Man muss sich da ein bisschen darauf achten, was man zeigt.

00:25:12: Und das Ganze funktioniert auf Zufuhr.

00:25:18: Das heißt ich kann zum Beispiel fragen, was steht auf dem Schild?

00:25:22: Beschreibe was du vor mir siehst, beschreibe die Drohse oder die Flasche und dann funktioniert das Ganze ja ein bisschen ähnlich wie bei BMI AI aber deutlich mehr auf Gespräch ausgewichtert, also ich kann dann Folgefragen stellen.

00:25:43: Eben per mit einfach mit meiner Stimme.

00:25:45: allerdings funktioniert das wie gesagt auf Zufuhr und nicht reaktiv.

00:25:51: Das heißt die KI kann sich nicht melden wenn sie irgendwas sieht.

00:25:57: was nicht geht ist Ich kann nicht sagen ich bin jetzt am Bahnhof Sag mir bitte Bescheid Wenn du Gleis Acht ziehst.

00:26:06: Das müsste ich immer wieder tun.

00:26:07: Es müsste ich alle zwei Sekunden tun, denn... Ich kann das zwar sagen und dann wird Chatchapity auch wahrscheinlich sagen Ja, ich sage dir Bescheid wenn ich gleiches achte sehe aber dieses System was dahinter steckt ist nicht in der Lage mir also dass es nur in der lage zu reagieren auf mich Aber nicht in erlage mehr proaktiv Sachen mitzuteilen.

00:26:36: das ganze gibt's natürlich auch bei Google Gemini Google Gemini.

00:26:40: Ich finde Google Gemine etwas besser von der ganzen Beschreibung, auch wie die Stimme klingen und wie beschrieben wird – das ist bei Gemini ein Besser tatsächlich!

00:26:57: Die Erkennung ist meiner Erfahrung noch schwächer als bei Be My Eyes.

00:27:02: ein Foto zu machen oder einfach direkt an die KI, ein einzelnes Foto an die KAI zu schicken.

00:27:09: Ist auch nicht weiter verwunderlich denn Wenn ich ein Foto aufnehme und das Ganze mit Be My Eyes erkennen las, dauert es doch gut und gerne mal seine fünf bis zehn Sekunden.

00:27:21: Und wenn ich diese Live-Funktion nutze also diesen Sprachmodus nutze dann ist das ganze deutlich schneller.

00:27:30: Es fasst in Echtzeit dass die Antwort gegeben wird.

00:27:33: Das heißt die KI hat da nicht so lange Zeit das Bild zu verarbeiten.

00:27:41: KI ist jetzt Apps auf dem Smartphone präsent, sondern auch ins Screen wieder mittlerweile.

00:27:50: Also egal ob sie Chores nutzen NVDA, VoiceOver oder eben Talkback auf einem Android, KI ist da präsente und versucht Anwendungen oder generell Inhalte aus dem Internet oder in Dokumenten zugänglicher zu machen als die vorher waren.

00:28:13: Fangen wir mit NVDA an.

00:28:16: NVDA ist, finde ich ein großartiges Screenwider.

00:28:20: Er ist kostenlos.

00:28:22: Wir können ihn kostenlos runterladen.

00:28:26: aus meiner persönlichen Sicht meine persönliche Meinung gerade für Heimanwender fast eben bürtig mit dem was die teure Alternativen können also beispielsweise Chores und es auf Windows verfügbar.

00:28:41: natürlich auch für den Screenwieder NVIDIA gibt es Erweiterungen, sogenannte add-ons.

00:28:51: Die KI nutzen verschiedene Dinge beschreiben, den Bildschirm zum Beispiel beschreiben können im Bildschirmen einer unzugänglichen Anwendung.

00:29:00: Wenn man im Internet ist stößt man immer mal wieder auf Grafiken die nicht beschriftet sind.

00:29:07: auch das kann diese Anwendungen beschreiben.

00:29:10: und als Beispiel gibt es da Zum einen die Erweiterung AI Content Describer, also KI-Inhaltsbeschreibung oder Beschreiber auf Deutsch übersetzt.

00:29:26: Die kann man über Schnittstellen an verschiedene KI Systeme anbinden, beispielsweise auch an ChatGBT.

00:29:40: und es gibt noch Vision Assistant Pro.

00:29:44: Die ist ganz gut beschrieben in einem Beitrag vom Projekt NVDA nachhaltig, das man auch im Off-Sitevorwurm findet.

00:29:58: Das NVDA Nachhaltig ist ein Projekt, ja eine Kollaboration, eine Zusammenarbeit von DBSV, vom BFW Würzburg und die versuchen länger angelegten Projekt und auch finanzierten Projekt, den NVDA-Screen wieder zu verbessern.

00:30:25: Zum einen und zum anderen halt verschiedene Anwendungen vorzustellen, dem NVDA zugänglicher zu machen für Menschen die weniger Vorerfahrung haben.

00:30:37: Und da gibt es eine Podcast auch und viele Beiträge im forumoffside.de Auch im Bereich Wundum-Hilfsmittel gibt es unter dem Beitrag KI verstehen und clever nutzen.

00:30:54: Gibt das den Bereich oder den Diskussionsfaden NVDA nachhaltig?

00:31:01: Und da sind verschiedene Beiträge drin, auch Audiobeiträge Podcast verlinkt.

00:31:11: Einer der Letzten ist diese Erweiterung namens Vision Assistant Pro, die da ganz ausführlich vorgestellt wird.

00:31:23: Der Nachteil bei diesen Erweiterungen für den NVDA ist man muss sie immer mit einem System im Hintergrund verknüpfen Google mit dem System Gemini und OpenAI mit dem ChatchiPT.

00:31:42: Es gibt auch Erweitarungen, die sich an Mehrwertsysteme anbinden lassen.

00:31:46: Es gibt aber keine Erweiterung, es gab bisher keine Erwiterungen die eben flexibel ist und sich an viele Anbieter anbinden lässt.

00:31:56: Die sich auch Anbieten anbieten lässt, die vielleicht im Unternehmen existieren.

00:32:06: Wobei ich hinaus möchte.

00:32:07: der Nachteil von diesen Erweitarungen für NVDA ist dass man diese Schnittstelle bereitstellen muss oder diese Schnittstellen, diesen Schlüssel.

00:32:18: Meistens ist es ein Schlüssel den man eingeben muss sogenannte API-Schlüssel.

00:32:22: das ist nichts anderes wie ein Passwort um sich eben an dieser KI an dem KI System zu authentifizieren und im Endeffekt zu sagen wer man ist weil dieses System ja nicht kostenlos sind.

00:32:39: die haben meistens eine kostenlose ein bestimmtes Kontingent dass man kostenlos nutzen kann ein bestimmtes Kontingent an beispielsweise Bildern, die man erkennen muss.

00:32:51: Oder da geht es dann um die sogenannten Tokens, die ich angesprochen habe also die Wortteile oder Satzteile mit der bei der KI gerechnet wird und ja um sich dazu zu identifizieren und eben so einen Kontingente zu nutzen oder am Ende auch seine Kreditkarte zu hinterlegen und dafür zu zahlen.

00:33:15: Man muss sagen, das Ganze ist für Privatanwendung wirklich sehr günstig.

00:33:20: Also da sprechen wir von wenigen Euro mit denen man schon sehr weit kommt.

00:33:27: Die Einrichtung ist daher aber für Anfänger sicherlich eine Herausforderung.

00:33:37: Auch andere Screen wieder haben jetzt mittlerweile KI integriert.

00:33:41: also Chores hat zum Beispiel eine eingebaute KI-Bildbeschreibung, namens Sprechen des Bild.

00:33:48: Die erreicht man wenn man Chorstaste, Leertaste und P drückt.

00:33:55: Und dann gibt es verschiedene Optionen.

00:33:59: also mit H kommt man meistens nach erst mal zur Hilfe oder man ließ sich den Hilfebereich zum sprechenden Bild durch.

00:34:08: da sind auch die Tastenkürzel aufgelistet Denn man kann da einiges machen, man kann sich eben den ganzen Bildschirm beschreiben lassen.

00:34:16: Man kann sich eine Übersicht über... Wenn man zum Beispiel auf einer Webseite im Internet surft, kann man sich erst mal eine Über- sicht genervieren lassen über die Internetseite, der auf der man gerade ist.

00:34:30: und auch Navigations ... Also die Annenung gibt einem dann Navigationstips sozusagen also eine Üersicht mit Tipps für die Navigationen hilfreich sein können.

00:34:40: Und für die Übersicht auf der Seite, als Blinder oder Sehwender der Mensch hat man ja doch meistens nicht den Überblick, den jetzt ein Sehen da bekommt wenn er auf dem Bildschirm schaut und ins Internet geht sondern man muss sich die Seite Zeile-für-Zeile überschwift für überschwifft oder eben man springt ins Formularfeld wenn man schon was kennt.

00:35:02: und das Ganze kann mühsam sein gerade wenn man eben die Seite nicht kennt.

00:35:07: Und da schaffen diese KI-Anwendungen eben auch Abhilfe.

00:35:15: Es gibt dann bei Chores noch eine Positionserkennung für das Gesicht in der Videokammer war, was zum Beispiel wenn man jetzt in den Zoom anrufen ist und zum Videoanruf startet, dass man sicherstellt, dass das Gesicht auch in einer Kammer sichtbar ist bevor man seine eigene Kamera startet Es gibt einen KI-Grafikbezeichner, der sich dann auf Wunsch auch merkt, welche Grafik man also die Grafik Bezeichnung auch merken.

00:35:46: Mit Jaws.hast.g ist das Ganze erreichbar.

00:35:49: Also wenn man sich auf einer Grafik befindet, die nicht beschriftet ist und auf einem Bild ausnichtbeschriftet isst kann man jaws.htas.dg drücken.

00:35:58: und die KI beschriftete diese Grafik und auf Wunscht merkte sie sich auch diese Beschriftung fürs nächste Mal.

00:36:05: VoiceOver auf Mac Oder auf dem iPhone hat jetzt auch KI integriert.

00:36:11: KI wird hier für viele Anwendungen genutzt, ich kann nicht so ganz über Mac sprechen.

00:36:18: das Ganze ist auf dem Mac sehr ähnlich wie auf dem IPhone.

00:36:21: aber da ich kein Mac habe und das ganze nur in der Theorie betrachten kann beschränke ich mich erst mal aufs iphone.

00:36:32: Da gibt es die sogenannte VoiceOver-Erkennung, findet man in den Einstellungen unter Bedienungshilfen und dann eben VoiceOver.

00:36:40: Dann wird die Looper geöffnet und die Loope in Apple ist nicht nur für Menschen mit C-Behinderbungen hilfreich sondern auch für Blinde denn die Loop hat eine Objekterkennung integriert, eine Texterkennnung, man kann zum Beispiel sich ansagen lassen wo eine Tür ist usw.. So ein bisschen ähnlich wie das auch diese angesprochenen Apps Single Eye oder Envision, oder Lookout machen.

00:37:11: Bei VoiceOver gibt es einen Gewahrfliegbezeichner.

00:37:16: wenn ich mich auf einem Bild befinde wird da auch KI genutzt um eine kurze Beschreibung auszugeben.

00:37:26: und es gibt die Bildschirmerkennung.

00:37:30: Die Bildschirmerkennung findet man auch in den Einstellungen, die kann man an und ausschalten.

00:37:37: In den VoiceOver-Einstellungen und die Bildschirmerkennung ist sehr nützlich weil sie hilft mir beim Bedienen unzugänglicher Apps.

00:37:50: Also ich kann wenn ich eine iPhone App habe Wer ein iPhone hat sicherlich schon erlebt dass eine App nicht bedienbar ist für uns die Standards für die Zugänglichkeit nicht eingehalten wurden.

00:38:05: Da kann die KI-Abhilfe schaffen, man kann dann eben auch über den normalen Wischgeschen durch dem Bildschirm gehen und die Bildschirmeerkennung sorgt dafür, dass man eine halbwegs zugängliche App bekommt.

00:38:24: Beim Screen Need a Talkback gibt es Also Kotalkback von Google, für Android-Anwendungen gibt es die Funktion Bildbeschreiben.

00:38:36: Das ist so ähnlich wie bei VoiceOver ein bisschen ausführlicher sogar noch.

00:38:39: Also Google finde ich macht das sehr gut, das aktuelle Element beschreiben.

00:38:43: Ich lasse mir da ganz gern bei WhatsApp zum Beispiel die Statusbilder beschreiben oder Bilder im Internet auf Social Media.

00:38:54: mittlerweile kann man auch dazu Fragen stellen sowohl per Spracheingabe als auch per Text und man kann sich den ganzen Bildschirm beschreiben lassen.

00:39:08: Und auch andere Screenreader, wie zum Beispiel Supernova haben KI in gewisser Weise integriert.

00:39:15: Was ist davon der Vorteil?

00:39:17: Man muss nicht mehr... Wie bei Be My Eyes gibt es ja für Windows als Anwendung.

00:39:24: Da kann ich mit dem Bildschirmen beschreiben Wenn die KI direkt in meinem Screen wieder integriert ist, kann ich natürlich... Das Screen wieder ist mein Bildschirm sozusagen.

00:39:32: Das Screen Wieder ist das Tool, das ich eh nutze und der ist immer da und er ist immer an den habe ich immer dabei egal in welcher Anwendung ich mich bewege.

00:39:45: Ich muss keine zusätzliche App öffnen.

00:39:48: Ich kann mir einfach unzugängliche Elemente beschreiben lassen da wo ich bin.

00:39:57: Was ist jetzt die Zukunft von dem Ganzen?

00:40:00: Die Zukunft von den Ganzen wird sein, oder es deutet sich jetzt schon an dass auch unbedienbare Anwendungen und Webseiten immer bedienbarer werden.

00:40:10: Zum einen durch so was wie eben diese VoiceOver Bilderkennung oder VoiceOver Bildschirmerkennung wie heißt das?

00:40:19: die KI immer mehr die Aufgabe übernimmt solche unzugänglichen Anwendungen oder Internetseiten uns zu beschreiben, aber nicht nur zu beschreifen sondern dass wir auch dann damit interagieren können.

00:40:32: Also das wäre auch auf einem Link der eigentlich nicht zugänglich wäre, aber dann hinterdrücken kann.

00:40:42: und der nächste Schritt ist tatsächlich für so umzugängliche Anwendung ganz interessant.

00:40:48: KI kann mittlerweile nicht nur Bilder beschreiben sondern KI kann auch Werkzeuge, KI kann angewiesen werden.

00:40:58: Werkzeige auf dem Computer zu nutzen beispielsweise die Maus oder die Tastatur.

00:41:07: Das Ganze birgt natürlich gewisse Gefahren und Wiesniken.

00:41:10: wenn ich mit der KI die Möglichkeit gebe meine Maus zu nutzen können ja keine Fehler passieren.

00:41:18: Aber ein Beispiel ist, dass ich der KI jetzt anweisen kann.

00:41:23: Wähle diese Option aus, klick auf weiter und beschreib mir den nächsten Bildschirm.

00:41:28: Wenn ich in einem unzugänglichen Assistenten bin, irgendwas installieren will Kann die KI tatsächlich für mich klicken Und für mich ganze Bildschirme bedienen.

00:41:44: Da ist es wichtig Aus meiner Sicht genaue Anweisungen zu geben.

00:41:47: Also mach nur das und nicht alles.

00:41:52: Und auch sicherzustellen, dass man die KI jederzeit unterbrechen kann wenn irgendwas unvorhergenehmes passiert.

00:42:01: Ich sehe das als eine große Chance für die Zugänglichkeit Denn ich bin der Meinung, dass nie alles zugänglich sein wird.

00:42:12: Natürlich ist es kein Ersatz für Barrierefreiheit Allerdings eine große Chance für Zugänglichkeit, die wir auch nutzen und mitgestalten sollten.

00:42:24: Eine Anwendung, die das schon umsetzt ist die Anwendungen Guide unter Windows aktuell nur auf Englisch verfügbar kommt aus den USA Ist ja nicht ganz günstig kann man aber in der Testversion nutzen habe ich auch schon gemacht Und da kann ich dann wirklich mit stgalt g, glaube ich ist es die Tastenkürzel, das Tastenkürzel mit der ich die starten kann.

00:42:48: Dann kann ich sagen, ich habe eine Anwendung offen.

00:42:51: beispielsweise bei mir ist es... Ich mache als Hobby ganz gerne ein Dreadedruck und bei mir sind es die Anwendungen eines Dreaddeduckers, die nicht zugänglich ist.

00:43:02: und darf ich die Karriere einfach mal angewiesen?

00:43:04: Ich weiß wie das geht!

00:43:05: Ich weiß was zu tun ist.

00:43:08: Ich kann es nur nicht tun, weil die Anwendung nicht klappt mit Screen wieder.

00:43:12: Weil sie nicht zugänglich ist.

00:43:14: Dann habe ich die KI einfach mal angewiesen da hinzuklicken und diese Aufgabe auszuführen also die Vorbereitung für den D-Druck und dann den Druck zu starten.

00:43:30: Und ja!

00:43:30: Es hat funktioniert und das ist eine große Erleichterung.

00:43:35: Das ganze ist in Kinderschuhen auch in den Screen wieder kommen, da bin ich mir sicher.

00:43:44: KI steckt jetzt immer mehr in Hilfsmitteln.

00:43:49: Da werden also in klassischen Hilfsmitteln die gar nichts mit Smartphone oder iPhone oder Handys oder Computern zu tun haben.

00:43:58: Das ist zum Beispiel das Stellar Track von HumanWare zu nennen damit es eigentlich ein Navigationssystem für Blinde entwickelt.

00:44:09: Und als Zusatzfunktionen bietet das dieses Navigationssystem auch die Erkennung von Türen, Ampeln überwägen oder Text an.

00:44:20: Text zum Beispiel für eine Speisekarte wenn man unterwegs ist denkt man auf eine Speisekarte Oder man denkt an ein Klingelschild.

00:44:28: oder man denkt wenn man unterwegs ist An die letzten paar Meter die für uns oft Schwierig zu bewältigen sind, weil das Navigation-System sagt.

00:44:40: Sie sind am Ziel angekommen und es fehlen aber noch die letzten fünfzehn Meter, weil des GPS bekanntlich nicht so genau ist.

00:44:50: Und da soll diese KI-Erkennung eben in dem Stellar-Track-Apfilfe schaffen und erkennt dann auch die Türen und er kennt dann die Eingänge Vorlesesysteme, wie ich schon eben sagte, die Spezialsysteme, die darauf optimiert sind, Text vorzulesen.

00:45:15: Auch die haben mittlerweile KI integriert um Fragen zum Text zu beantworten beispielsweise auch Übersetzen zusammenfassen oder einfach nur Fragen stellen wenn ich jetzt einen langen Text habe eine lange Errechnung habe und einfach der Frage stellen will um leichter an Informationen zu kommen.

00:45:35: es gibt Dann eben auch die Brillen für Seebehinderte, die dann wieder weggehen von KI.

00:45:42: Die mit Texten umgeht mehr hin zu speziellen KI-Modellen, die das Bild an jeweilige Sehschwäche anpasst.

00:45:53: Also auch das finde ich sehr spannend.

00:45:56: Es gibt zum Beispiel die BL-Glasses, die wirklich bei bestimmten Seebehinderungen hilfreich sind weil die KI dieses Bild die Kamera aufnimmt und so verändert, dass es der Mensch mit Sehbehinderung besser sieht.

00:46:14: Und es gibt KI-Brillen für blinde Unsehbehinderte.

00:46:18: Da ist zum Beispiel die Orchem MyEye zu nennen wobei das eher eine kleine Brillenkamera ist mehr als eine Brille also eine Kameradie an der Brille befestigt ist.

00:46:28: Die erkennt Texte Farben Geldscheine man kann Produkte einspeichern Gesichter einspeichernd enthält in der aktuellen Version auch eine ausführliche KI-Beschreibung, so wie das auch BIMEI Eismacht die dann auch Daten ins Internet schickt.

00:46:48: Die ORCAM ist normalerweise ein Offline Tool also ein Tool, das kein Internet braucht aber in dem Fall nutzt sie auch Internet.

00:46:59: Es gibt die Envision Glasses.

00:47:01: Darauf gehe ich nicht so sehr näher an Denn die Enversion Glasses offiziell noch erhältlich.

00:47:09: Allerdings läuft das Produkt aus, denn die Google-Glas auf der die inwischenglases basiert also das Produkt dass entwischendah genommen hat wird nicht mehr produziert und das heißt auch die entwischen glaces werden nicht mehr produziert.

00:47:29: sind jetzt noch Westposten da die noch nicht verkauft wurden?

00:47:34: Allerdings ist damit zu rechnen, dass die Funktionen zwar weiterhin existieren.

00:47:41: Die Brille an sich jedoch nicht mehr weiterentwickelt wird und in der KI-Bereich tut es sich ja doch immens viel.

00:47:49: Das heißt da kauft man sich vielleicht ein tolles Hilfsmittel und setzt dann gar nicht mehr so sehr auf die Zukunft.

00:47:58: Es gibt noch ein ganz interessantes Produkt und das ist die Ray-Ban Matter Brille.

00:48:06: Die kennen sich ja auch einige schon aus Hilfsmittelausstellungen oder Podcasts.

00:48:13: Das ist eine Kooperation von Meta, Meta ist der Hersteller-Vertreiber von Facebook WhatsApp Instagram und die haben eben ne smarte Bölle öffentlich in Kooperation mit Ray Ben.

00:48:27: Ray Ben kennt man als Sonnenbüllenhersteller.

00:48:31: Eigentlich ist die Böhle für Menschen gedacht, die in den sozialen Netzwerken Inhalte veröffentlichen.

00:48:38: Denken wir an Menschen, die wirklich Videos veröffentlichen.

00:48:47: Die können jetzt Videos aus ihrer Perspektive aufnehmen und auch den Thron natürlich aufnehmen oder auch live streamen.

00:49:01: Wir nutzen die Bühle jetzt um Beschreibungen zu erhalten.

00:49:09: Die Brille hat auch eine eingebaute KI-Funktion, mit der man ihr Fragen zur Umgebung stellen lassen kann.

00:49:16: Mittlerweile funktioniert es gut.

00:49:20: Wir können zum Beispiel fragen, hey Meta ließ mir das Schild vor?

00:49:24: Wenn natürlich die kamerbare Brille auf dem Schild gewichtet ist... Hey Metta beschreibt mir den Kalender an der Wand.

00:49:32: über mich hängt z.B.

00:49:33: einer.

00:49:34: Hey Metha welche Dose halte ich gerade?

00:49:40: Rückseite dieses Buches vor oder ließ mir den Autor und den Titel vor.

00:49:46: Hey meta, fasse diesen Brief zusammen!

00:49:48: Oder hey meta, liest diesem Brief Wort für Wort?

00:49:52: Und so weiter und sofort.

00:49:55: Wie man jetzt an den Anweisungen die ich hier genannt habe und die auch in meiner Übersicht stehen schon merkt, je spezifischer desto besser.

00:50:03: Wenn ich jetzt nur sage hey meta beschreib mir was vor mir ist dann beschreibt ja alles oder irgendwas was er halt vor mir sieht und vielleicht auch gar nicht das, was mich interessiert.

00:50:19: Wichtig ist daher wenn ich wirklich ein Problem lösen habe, wenn ich eine Alltagssituation hab bei der ich jetzt Hilfe brauche, generell egal welche KI man nutzt am besten spezifisch wagen, wenn es geht.

00:50:35: also was möchte ich genau von der KI haben?

00:50:38: Achtung auch hier beim Datenschutz.

00:50:42: ja Meta ist jetzt nicht gerade bekannt für einen sehr, sehr guten Datenschutz.

00:50:49: Ist auch oft nicht gerade positiv in den Schlagzeilen.

00:50:52: Ich gehe da jetzt nicht auf die politische Aspekte ein.

00:51:00: Gleichzeitig möchte ich nicht unerwähnt lassen, dass man einfach genau wie bei jeder anderen Internetanwendung, wie bei jedem anderen KI vorsichtig mit den Daten umgeht, der KI gibt.

00:51:14: Wenn ich jetzt einfach wissen möchte, ist das die Dose für sich oder ist es die Dase meist?

00:51:20: Dann ist es vielleicht okay bei sensiblen Themen wo ich nicht möchte dass es nach außen geht.

00:51:26: Nicht an die KI geben.

00:51:28: Zum was kann man dann vielleicht mal singe einnutzen, dass es bei der Texterkennung durchaus offline, bei der Live-Texterkennung andere Offline, also Anwendungen die eben kein Internet brauchen.

00:51:44: Die Brille, die Ray-Ban-Brille ist ein großartiges Produkt.

00:51:47: Die nimmt auch großartig auf.

00:51:51: Ja ich nutze sie auch als Headset.

00:51:53: Sie schickt aber definitiv Daten ins Internet.

00:51:57: Jedes Bild das man aufnimmt wird ins Internet geschickt und wird an Meta geschickt.

00:52:02: Hier ein paar kurze Aufnahmen mit der Meta Ray-ban-Brilla, mit der eingebauten Metakai.

00:52:08: Hey Metta!

00:52:10: Schau und beschreib mir den Kalender an der Wand.

00:52:16: Gerne, ich sehe einen Wandkalender, der den Monat April zeigt!

00:52:20: Die Tage eins bis dreißig sind darauf vermerkt wobei einige wie der ersten und der zehnte April in Rot hervorgehoben sind was auf Feiertage oder besondere Tage hindeuten könnte.

00:52:32: Oben auf dem Kalender ist ein Bild der externsteine abgedruckt und daneben steht KW-Fürzehn zu Achtzehn wahrscheinlich für kalenderwochen.

00:52:43: Hey Mathe Lies mir diesen Zettel vor.

00:52:49: Auf dem Zettl steht das Originalrezept aus unserem Fernsehbeitrag beim Kabel-Einsmagazin vom sechsohnzwanzigsten November zwei tausend zwanzig Schwarzkohlpenner Grünkohl mit Lachsfilet für vier Portionen, zweihundert Gramm frischer Schwarzkohl oder Grünkohle.

00:53:06: Vierhundertfünfzig Gramm Frisches Lachswilet ohne Haut in Streifen geschnitten.

00:53:11: Hey Metta Stop!

00:53:14: Ich wollte nur kurz einwerfen, das hattest du glaube ich nicht erwähnt dass man die Rayband-Brille ja auch mit BeamerEis verknüpfen kann und dass dadurch auch man eben zum Beispiel einen freiwilligen Helfer anrufen kann.

00:53:26: Und beide Hände frei hat.

00:53:28: also da habe ich zB.

00:53:29: wir sind offenbar beide D-Druckfans und wenn ich bei mir das Filament wechseln muss dann brauche ich beide Hände und dann wird halt der Freiwillige über die Brille angerufen und guckt dann quasi durch meine Brillenkamera aus meiner Perspektive auf den Drucker und kann mich genau leiten.

00:53:47: Also das finde ich eine sehr, sehr praktische Sache.

00:53:49: Das ist eine sehr gute Funktion.

00:53:52: Auch da war die erste Anwendung, die auf die Bölle kam, auch die erste Drittanbieter-Anwendung sozusagen dieses Heymetha.

00:54:00: was ich gerade beschrieben habe, ist ja eine Funktion, die nur auf Zubuff reagiert logischerweise und auch eine Function, die von Meta selbst entwickelt wurde Und die auch gar nicht unbedingt für uns blinde und sehbinder da ist, sondern eben für alle.

00:54:16: Es gibt zwar die Möglichkeit – das würde ich auch empfehlen, was mich gerade durch Einfeld in den Einstellungen unter Barrierefreiheit detaillierte Antworten zu aktivieren.

00:54:26: Das ist so ein Schalter, den man aktivieren kann.

00:54:29: Dann werden die Antworten ein bisschen detaillerter.

00:54:33: Man kann es natürlich ja auch erreichen mit in dem man einfach sagt, beschreib mir im Detail was du siehst oder so.

00:54:43: Aber Be My Eyes war wie gesagt die erste Anwendung die auf die Pille kam.

00:54:49: also das ist schon toll dass man einfach mit Hey Metta be my eyes anruft starten kann und die freiwilligen dann das sehen was durch die Pülle.

00:55:01: aber durch die Pillen kann man eben aufgenommen wird.

00:55:04: Das Ganze funktioniert übrigens auch über WhatsApp.

00:55:07: WhatsApp nutzen wahrscheinlich auf viele, wenn ich ein WhatsApp-Anwurf starte.

00:55:12: Meta ist ja WhatsApp.

00:55:14: also WhatsApp ist auch integriert in die Bille habe ich auch schon mal genutzt mit meiner sehnten Freundin zum Beispiel.

00:55:21: oder kann man so mitbekannten dass sich einfach bei WhatsApp Anrufen sagt hey ich bin jetzt da gerade irgendwo Ich hab mich gleich verlaufen oder ich kenne mich hier nicht so gut aus.

00:55:33: Kannst du mir kurz mal zwei Minuten helfen, um da und dahin zu kommen.

00:55:38: Wir haben vorher das Thema gehabt dass die KI eigentlich nicht in der Lage ist uns zu sagen was also uns Bescheid zu sagen wenn sie irgendwas sieht.

00:55:53: Das Ganze funktioniert In einer gewundenlegenden Form bei dieser Objekterkennung Die ich schon öfter angesprochen habe.

00:56:05: Die KI gibt einen Ton aus, wenn ihr eine Tür erkannt wird im Bild.

00:56:09: Die KI gebt bestimmte Objekte aus die sie kennt also Tür auf zwölf Uhr.

00:56:18: So was geht auch auf der Envision Glaces zum Beispiel, also auf der Brille von Envision.

00:56:23: so etwas geht in Google Lookout.

00:56:25: sowas geht in Envision schon und auch schon länger.

00:56:31: spezifische Sachen sind bisher ein Problem bis dato.

00:56:37: Also sprich, sag mir was auf welche Hündernisse auf meinem Weg sind für mich zur nächsten Bank.

00:56:46: Wenn du eine siehst, beispielsweise im Park sagen wir Bescheid wenn Du das Schild für Gleis Acht siehst.

00:56:54: so etwas war bisher eine große Herausforderung bis hin zu unmöglich aktuell und es ist jetzt wirklich die das können und sogar erste Anwendungen, die es auch eben auf dieser Ravenmetabelle ganz gut können.

00:57:16: Da gibt's eine Anwendung, die heißt O-Ovion also wirklich mit zwei O vorne wie der Ovion bloß mit zwei o vorne.

00:57:25: Das ist ein französischer Entwickler, eine französe Startup Firma, die diese App baut Und die hat eben Liveerkennung diesen reaktiven Beschreibungen.

00:57:43: Die simuliert es ein bisschen, die macht natürlich auch Fotos ja schnell hintereinander und schickt sie dann an die KI und die analysiert sie.

00:57:51: Das Ganze funktioniert aber schon sehr nahe an Echtzeit.

00:57:57: man kann wirklich eine Frage stellen und dann beantwortet hier die KI die Frage kontinuierlich immer wieder Sag mir, wenn du den Eingang zum Laden XY siehst.

00:58:13: Dann sagt O-Obeon ja ich starte jetzt in Modus Ich beantworte deine Frage per KI und dann kommt ein Ton Und alle paar Sekunden Sagt mir die KI Ob Sie eben den angesprochenen Eingangs sieht oder nicht?

00:58:34: Und auch so ein bisschen was um mich rum ist immer mit dem Ziel, eben meine Frage zu beantworten.

00:58:43: Das Ganze kann auch allgemein passieren.

00:58:44: also einfach sagen wir was vor mir ist.

00:58:47: dann passiert das ganz allgemeinen.

00:58:49: dann beschreibt sie den Weg die Straße, die Umgebung.

00:58:52: Also dem Ganzen sind eigentlich wenig bis gar keine Grenzen gesetzt.

00:58:57: und ganz aktuell im März, zwanzig kam diese Funktionalität dieser App auf die Metabelle die ich vorher angesprochen habe auf die Meta Ray Band Brille.

00:59:11: Das heißt, ich hab beide Hände frei und hab vielleicht in der einen Hand meinen Stock.

00:59:17: Die Meta-Brille hat die Lautsprecher in den Brillenbügeln integriert.

00:59:24: Ich hab auch meine Ohren schweil für den Straßenverkehr kann ganz einfach auf der Brille laut und leise machen.

00:59:31: das heißt dass ich mich konzentrieren kann auf was anderes wenn nötig Und habe aber die Beschreibung auf der Brille und den Ohren, die gleichzeitig frei sind.

00:59:46: Und hab auch kein Smartphone in der Hand.

00:59:48: Wer das Ganze mal ausbrüllen möchte und keine Brille hat, kann sich die App OOvion einfach aus dem App Store runterladen.

00:59:57: Das Interface oder die Anwendung selbst ist auch ganz einfach aufgebaut und sollte auch gut bedienbar und gut nutzbar sein.

01:00:09: noch ein paar andere spannende Sachen integriert, zum Beispiel eben das Auffinden von Objekten.

01:00:16: Finde eine Bank dann wird die Suche starten nach einem bestimmten Objekt und auch dann werden Ton ausgegeben wenn er das Objekt sieht.

01:00:27: Eine ungefähre Entfernung angegeben.

01:00:30: da ist wichtig zu wissen dass es wirklich nur ungefähr eine Entfernungsabschätzung mit KI sehr schwierig Besonders, wenn das eine kleine Kamera ist wie die an der Brille und keine zusätzlichen Sensoren.

01:00:47: Aber es wird eben auch in Ton ausgegeben und aus der Richtung.

01:00:52: Die KI-Brille von Meta hat ja zwei Lautsprecher in jedem Brillenbügel ein und hat sozusagen eine Stereoausgabe und auch das wird da genutzt.

01:01:07: Das heißt, wenn sich die Bank links befindet wird der Ton tatsächlich von links kommen auch.

01:01:15: Und das hören wir uns jetzt mal an, ich war mit Orion unterwegs und habe ein bisschen aufgezeichnet um hier zumindest zwei der wichtigsten Funktionen demonstrieren zu können.

01:01:24: Zuerst habe ich Orion gebeten mehr Querstraßen zu melden.

01:01:33: Also laufe ich weiter geradeaus.

01:01:39: Direkt vor ihnen befindet sich eine Querstraße.

01:01:41: Sie können einen Zebra-Steifen sehen, der über die Straße führt.

01:01:44: Da gehe ich dann mal rüber Dieses Ticken übrigens.

01:01:48: Das zeigt an das die App noch aktiv ist.

01:01:50: Auf der rechten Seite hinter dem Laternenpfal Ist ein Straßenschild zu sehen auf dem Sonnenstrasse steht Ich sehe keine Querstraßen direkt vor dir.

01:01:59: Die Straße auf der du dich befindest scheint sich in der Ferne zukommen.

01:02:02: Das stimmt.

01:02:03: In etwa Hundertfünfzig Metern kommt ein Kreisverkehr und da stehe ich jetzt.

01:02:08: Sie stehen an einer Kreuzung.

01:02:09: Direkt vor ihnen befindet sich ein Zebra-Streifen, der über eine Straße führt.

01:02:13: Von ihrer rechten Seite kommt eine weitere Straße die diese kreuzt.

01:02:16: Ich kann keine spezifischen Namen für die Querstraßen erkennen.

01:02:19: Also es war ein Kreisverkehr keine Kreuzungen aber das war wahrscheinlich in dem Bildausnütt nicht zu erkennen.

01:02:26: Ja!

01:02:26: Es gibt eine Kreutzung direkt vor dir.

01:02:28: Du stehst an einer Straßenecke und die Straße auf der du dich befindest kreut sich mit einer anderen Straße Die von links nach rechts verläuft.

01:02:34: Das ist korrekt.

01:02:37: Ich sehe ein Schild, das anzeigt dass sie sich in der Osterstraße befinden.

01:02:41: Also das ist ja schon fast wie ein hensehender Mensch denn neben einem hergeht und die Umgebung beschreibt.

01:02:46: Das finde ich ziemlich grandios!

01:02:48: Ich hätte es auch schon mal genutzt um mir zum Beispiel Treppenansagen zu lassen die sich auf meinem Weg befinden... Das war jetzt die Funktion visuelle Frage.

01:02:57: Es gibt ja verschiedene Modi in dieser App Und visuelle Frage heißt eben sowas.

01:03:03: Also ich sage beobachte mein Weg, beobachtet die Umgebung und sagt Bescheid wenn das und dass passiert.

01:03:08: Nun gibt es auch die Funktion Suche Objekt und die hören wir uns jetzt mal an.

01:03:12: Ich habe Orion gebeten Ampeln zu suchen.

01:03:26: So, da hört man jetzt den Ordnungs-Ton der mir anzeigt in welcher Richtung das Objekt liegt und es ist ja ein Stereo.

01:03:31: Also der Ton kommt aus dem linken Brillenbügel.

01:03:33: deshalb auch schön laut weil dort das Mikrofon sitzt.

01:03:36: Die Ampel ist schwarz und hat ein grünes Licht an sie ist vertigral ausgerichtet.

01:03:40: Sie befindet sich links von dir.

01:03:42: Daran gehe ich aber vorbei denn ich möchte zu der Ampel die gerade aus über die Straße führt Und Das neue Objekt wird auch gleich erkannt.

01:03:49: Aber der Ton ist jetzt nur ganz leise zu hören weil er jetzt aus dem rechten Brillen bügel kommt.

01:03:52: Ich stehe nämlich genau neben der Ampel und Vater auch Grün.

01:04:03: Da hat er also schon die Ampel auf der gegenüberliegenden Straßenseite erfasst.

01:04:12: Ja, wie man hört bin ich da gerade eben mit dem Stock auch gegen gelaufen!

01:04:15: Also das ist eine ziemlich gute Echtzeitbeschreibung.

01:04:18: Es ist also so, ich hab diesen pulsierenden Ton.

01:04:21: Je schneller der Puls desto zentrierter habe ich das Objekt in meinem Blickfeld und zusätzlich habe ich eben noch durch die Brille dann das Stereopanoram, dass mir die Objekte auch mit Ton von links oder rechts angezeigt werden und ich weiß, in welche Richtung ich mich drehen muss.

01:04:35: Was Hilfsmittel betrifft, ist das ganz schön revolutionär.

01:04:39: Zurück zu Ben.

01:04:40: Eine andere App, die ganz ähnlich funktioniert, ist die App Scribe.

01:04:45: Me stelle ich auch wieder ins Vorraum mit dem Link.

01:04:55: Die hat eigentlich ursprünglich eine Dokumentenerkennung über KI, hat jetzt aber auch am unteren Bildschirmwand eben diesen Bereich Live-Erkennungen.

01:05:08: und da ist es so dass man einfach eine Liveerkennung startet und dann mit der KI spricht.

01:05:14: also die hatte nicht so viele unterschiedliche Modi oder Funktionen wie wie die OObion App.

01:05:21: Die hat ja auch noch eine Texterkennung mit dabei, das heißt ich kann dann auch mit der Bölle Textlesen und so.

01:05:28: aber die hat eben Live-Erkennung, da spricht man eher mit der KI und gibt es noch nicht auf der Bülle soll aber auch auf die Böllen kommen.

01:05:44: Das ist ein bisschen ein anderer Ansatz.

01:05:47: Da ist das glaube ich eher persönliche Präferenz was einem lieber ist und was man gerne nutzt.

01:05:55: Der große Unterschied ist bei ScribeMe kann ich auch mein Bildschirm teilen mit der App, also das heißt die beschreibt mir dann auch immer wieder etwas auf meinem Bildschirmen ist und auch kann dazu Fragen stellen.

01:06:10: Die Bildschärmeerkennung kann ich tatsächlich auch nutzen um mir ein Video beschreiben zu lassen.

01:06:16: Also ich mache diese Starte dieser Bildschermerkennungen Statt dir ein YouTube Video und lass mir, sag der KI, ich starte jetzt das Video.

01:06:29: Bitte beschreib mir alles was du in diesem Video siehst also nichts drumherum.

01:06:36: da sind ja dann auf dem Bildschirm noch irgendwelche... Ja, der Schalter zum Abspielen und zum Vorspringen usw.

01:06:46: Also beschreib nur was du im Video siehst Und dann ist es natürlich leicht zeitverzögert.

01:06:52: Aber die KI beschreibt dann, was sich in dem Video befindet und wie es sich verändert.

01:07:00: Also das war schon eine sehr interessante Erfahrung auch wenns verzögert ist und natürlich mit dem Kontext vom Video nicht gut umgehen kann weil der Ton nicht zugänglich ist für die App.

01:07:16: aber es ist schon erstaunlich Soweit der Vortrag von Ben Hofer zu KI-Hilfsmitteln für blinde und sevente Menschen, eine ganze Menge Stoff.

01:07:26: Ich habe jetzt noch einige Fragen zusammengestellt die im Chat gestellt wurden und die Ben in dem Meeting beantwortet hat.

01:07:32: Die habe ich jetzt aber nicht nochmal extra ein Kapitel unterteilt.

01:07:34: Ich würde einfach empfehlen sie sich durchzuhören.

01:07:36: es sind nochmal zehn Minuten weil dort vielleicht auch die eine oder andere Frage den einen oder die anderen ebenfalls interessiert.

01:07:43: ihr hört außerdem die Stimme meiner Kollegin Tanja Cardoso.

01:07:46: Was kann Envision Anders im Gegensatz zu Be My Eyes?

01:07:52: Oh, Envision und Be My eyes sind unterschiedliche Konzepte.

01:07:56: Ich würde sagen also be my eyes hat ja nur diesen einen Schalter mit der ich ein Foto aufnehmen kann.

01:08:02: Also Be My Is hat unten links einem Bereich der nennt sich glaube ich weiblichen Anruf oder Unterstützung anfordern.

01:08:14: das ist wie BMI erst gestartet wurde, dann wenn ich das auswähle gibt es in der Mitte einen Schalter.

01:08:21: Der heißt einen freiwilligen Anrufen und als zweiten Bereich unten am Bildschirm gibt's eben den Bereich BMI AI, also BMI-AI.

01:08:33: Wenn ich das Auswähl habe, hab' ich in der Mitte ein Schalter, der heißt Foto aufnehmen Und das beschreibt wirklich einfach nur was sie sieht.

01:08:46: Envision verfolgt ein anderes Konzept.

01:08:49: Envision hat verschiedene Modi.

01:08:50: Enmission hat den Modus Text sofort lesen, der dann jeden Text erkennt, der auf der Kamera ist.

01:09:03: Envishon hat Modus-Text scannen und viele mehr.

01:09:11: Da ist es eher so, dass man je nachdem was man möchte einen Modus auswählt.

01:09:20: Welche Addon gibt es für Captures?

01:09:23: Ja, Captures sind natürlich dazu da um nicht erkannt zu werden von der KI.

01:09:28: das Problem ist längst gelöst.

01:09:29: deswegen gibt's auch Captures.

01:09:31: so gibt es auch Leute die der Meinung sind da bin ich auch der Meinung dass Captures mittlerweile keine große Berechtigung mehr haben weil sie eben durch KI lösbar sind.

01:09:45: Captures Generell von diesen Anwendungen als BMI AI oder also auf Windows, oder eben diesen Screenwieder-Erweiterung schon erkennbar wenn man sie dann auch wagt.

01:10:02: Also einfach mal die Screenwieder Erweiterbung nutzen.

01:10:04: oder eben auf dem iPhone, ich weiß nicht, die Voiceover-Erkennung vielleicht?

01:10:10: Weiß ich aber nicht!

01:10:14: Bei vielen Catchers ist es allerdings so dass dass man ja irgendwas anklicken muss.

01:10:19: Also klick alle Bilder an, auf denen ein Fahrrad zu sehen ist.

01:10:24: Ja das stößt das Ganze natürlich dann noch nicht grenzend.

01:10:27: Das wäre dann das wo ich sagte für diese Windows App Guide oder eben zukünftig was auch aktuell so ein bisschen in den Kinderschuhen steckt oder noch nicht so richtig in die Apps und in die Screener hinzugehalten hat.

01:10:43: Dass die KI eben auch klickt.

01:10:47: Besteht hier nicht die Gefahr, dass immer schlampiger programmiert wird?

01:10:52: Weil die ganze KI wird es ewigten.

01:10:57: Ja das ist eine politische Diskussion.

01:11:01: da kann man zwei Stunden reden über dieses Thema ja.

01:11:05: Unsätzlich wie bei allem.

01:11:08: Es gibt Chancen und Risiken.

01:11:09: ich sehe die große Chance dass halt Dinge zugänglicher werden.

01:11:12: am Ende will ich mein Problem lösen.

01:11:14: Die KI schreibt natürlich auch immer mehr Code.

01:11:16: Also die KI programmiert auch immer mehr selber und sie kann eben auch angewiesen werden, auch beim Programmieren auf Barrierefreiheit zu achten.

01:11:26: Auch die Chance besteht, das Risiko besteht, dass Entwickler sich nicht mehr so ganz so viele Gedanken machen.

01:11:35: Ganz ehrlich ich persönlich – und es ist auch wieder meine Meinung und nicht irgendeine andere – ich sehe tatsächlich die Chancen höher als die Risiken an der Stelle weil wir haben in den letzten Jahren und Jahrzehnten gesehen Es gibt immer Anwendungen, die nicht zugänglich sind.

01:11:52: Und ich glaube das am Ende wird wahrscheinlich diese Chancen überwiegen.

01:11:59: Aber ja!

01:12:00: Die Gefahr besteht und da ist zu völlig recht.

01:12:04: Welches Tool eignet sich am besten für der Erkennung von Handschriften?

01:12:08: Handschiften können auf jeden Fall auch von Envision erkannt werden.

01:12:13: Cngai kennt auch Handschwiften.

01:12:15: Cngi hat sogar einen eigenen Modus für Handschwriften, so viel ich weiß.

01:12:21: und ja aber auch diese ganzen.

01:12:25: die Meta Ray-Ban wird Handschwüften erkennen oder Bima AI.

01:12:31: also das ist eigentlich schon mittlerweile eine Funktion die durchaus geht.

01:12:38: bei Handschriften ist es immer so je nach Qualität ist die Erkennung jetzt nicht ganz so gut.

01:12:44: Hat aber in der Qualität auch noch was zugenommen.

01:12:49: Ob jemand Erfahrung mit dem Stellartrack hat?

01:12:53: Es gibt dazu einen Beitrag im Podcast Sideviews, den kennen bestimmt auch einige unter www.sideviews.de oder unter www-HilfsmittelTester.de.

01:13:06: Wer sich mit Deutsch leichter tut da sind... Das macht der Christian Stahlberg vom Hilfsmittelverwahrt, vom bayerischen blinden und sehbehinderten Bund.

01:13:17: Ich bin da auch immer mal beteiligt und mache Beiträge.

01:13:21: Und da gibt es eine Folge, die müsste man über die Suche ganz gut finden.

01:13:26: zum Stellatrack.

01:13:30: Siehst du die Gefahr des KI-Tools irgendwann in den menschlichen Arbeitsassistenz ersetzen werden?

01:13:37: Meine Sorge ist, dass ich irgendwann gegenüber Kostenträgern begründen muss, warum ich einen Menschen und keine KI haben möchte.

01:13:49: Ich sehe die Chance tatsächlich dass immer mehr Sachen, die ich nicht kann, die nicht zugänglich sind für mich in meiner Arbeitswelt durch KI einfach übernommen werden kann.

01:14:05: Man muss ja sagen das ist so.

01:14:06: es, dass wir oftmals gebremst werden.

01:14:12: unsere Einschränkung, zumindest empfinde ich es manchmal so.

01:14:15: Ich habe irgendwas was ich einfach nur bedienen will, ich hab irgendwas was sich einfach nur erkennen will.

01:14:19: da ist ein Diagramm was jetzt halt einfach mal nicht beschrieben ist und das will ich gerne beschrieben haben.

01:14:27: und bei mir zum Beispiel ist es so, bei mir hat sich eine Arbeitsassistenz nie so wirklich gelohnt weil ich nicht so viele Anwendungsfälle dafür habe dass ich jetzt jemanden stundenlang damit beschäftigen kann.

01:14:42: Ich habe aber eben doch welche und das sehe ich ehrlich gesagt für mich persönlich, da kann ich auch nur für mich persönlich sprechen als gewose Chance.

01:14:54: Ich weiß natürlich was du meinst und wenn man jetzt begründen müsste warum man den Menschen nicht eine KI möchte dann werde es schon ein sehr großer Nachteil.

01:15:07: Gibt es Orion auch für Android?

01:15:08: Nein gibt's nicht.

01:15:10: Orion ist aktuell nur auf dem iPhone verfügbar hat mich dazu veranlasst als Android Nutzer tatsächlich die Brille wieder mit dem alten iPhone zu verknüpfen, um das Ganze auszuprobieren und mal die Erfahrung zu machen.

01:15:26: Orion wird mit der Metapöle verknüpft?

01:15:28: Ja!

01:15:29: Das ist der Fall.

01:15:30: also man kann auch... Die Verknüpfung ist auch sehr einfach.

01:15:33: Also wenn man die Metapoele aufhat und die O-Oreon App startet aufm iPhone also am besten erst Brille aufsetzen dann App starten Dann wird man gleich gefragt ob man Brille verknüpfen will.

01:15:46: Wenn man allerdings auch noch ein wichtiger Hinweis, wenn man die App nutzt als Beschreibung für... Man kann dann auch einstellen wie ausführlich die Bewerbung sein soll und so.

01:16:04: Aber wenn man eine App auf der Brille nutzt, dann kann man dieses Hey Matter nicht mehr nutzen.

01:16:09: Dafür muss man erst die O-Oreon App wieder beenden und das macht man am besten über den App umschalter also die Orion App wirklich beenden dann geht auch das Heimetta wieder.

01:16:23: Die Orion App kostet nichts, die ist aktuell völlig kostenlos.

01:16:30: Observer von Blindshell kenne ich.

01:16:33: BlindShell hatte ich erst zum Testen für den angesprochenen Sideviews Podcast.

01:16:39: Also wenn näher einsteigen wollen, empfehle ich die Folge anzuhören.

01:16:49: Das ist eine der letzten in dem Sideviews-Podcast wie gesagt unter www.hilfsmitteltester.de.

01:16:56: Die bietet auch Beschreibung von Bildern und Texterkennungen.

01:17:03: Wobei ich die Texterkannung da fand nicht tatsächlich die Texterkennung sehr anfällig für solche Halluzinationen, wie ich vorher gesagt habe dass die KI was dazu erfindet.

01:17:14: zum Text Das fand ich tatsächlich bei Be My Eyes besser.

01:17:18: Observo ist die eingebaute App von Blind Shell, also Blind Shell ist ja dieses Smartphone, das speziell für Blinde entwickelt wurde.

01:17:27: Blind Shell Classic III ist da das aktuelle und das bietet eben auch einen KI-Assistenten namens Luna.

01:17:35: der nutzt im Hintergrund auch entweder ChatGPT oder Google kann er auch im Internet suchen Bildbeschreibung und Texterkennung.

01:17:49: Wer sich das jetzt nicht alles merken konnte oder nicht mitschreiben konnte, und sich fragt wie komme ich denn jetzt an diese oder jene App?

01:17:54: Oder wie heißt die noch mal genau?

01:17:56: Ben hat im Offside-Forum in unserem Thread zur Seminareihe einen Beitrag bereitgestellt zunächst einmal mit einem Beitrag der Vertextlichungen des Moduls dann aber auch ein weiteren Beitrag mit einer Linkliste wo man direkt zu der App von Interesse kommen kann, das ist glaube ich der schnellste Weg.

01:18:13: Der Link zum Flat ist in den Show Notes ansonsten auf offsite.de die Kategorie rund um Hilfsmittel auswählen da es dann KI versteht und Kleve nutzen.

01:18:20: gleich das erste und darin wird auch von den Teilnenden diskutiert werden Erfahrung ausgetauscht.

01:18:27: ihr seid herzlich dazu eingeladen mitzumachen.

01:18:29: Ich wünsche euch was bis bald.

Über diesen Podcast

Wir informieren junge blinde und sehbehinderte Menschen über die Angebote des DBSV, über barrierefreie Games und Gadgets, beschäftigen uns mit Lifestyle, Kultur und Politik.
Besucht uns auf http://www.dbsv.org/jugendliche.html

von und mit DBSV-Jugendreferat

Abonnieren

Follow us