Tumgik
#KI Alltagshelfer
pressmost · 4 months
Text
Ardagger - Frühstücksnews - Mittwoch, 31.1.2024
(c) Katharina Brandstetter Sehr geehrte Gemeindebürgerin! Sehr geehrter Gemeindebürger! Zunächst geht´s heute um die Nächtigungszahlen. Die sind 2023 um fast 20 % angestiegen. Insgesamt lagen sie 2023 bei 19.963. Das ist der überhaupt zweitgrößte Wert nach 2019 (20.932). Damit ist der Einbruch in Folge der Pandemie nun nahezu wieder überwunden. Zusätzlich zu den Gästenächtigungen in den…
Tumblr media
View On WordPress
0 notes
techcree · 2 years
Text
So lernt der Roboter sprechen...
Tumblr media
Objekte erkennen und es aussprechen. Wie Roboter interagieren lernen und lernen.
Einen Roboter zu bauen ist das eine. Mit ein paar Servos und einem guten Programm kann er dann auch Augen, Kopf oder Arme und Hände bewegen. Um von uns aber bspw. als humanoider Roboter wahrgenommen zu werden muss er auch beigebracht bekommen zu interagieren. So beispielsweise in dem er seinen Menschen erkennt und diesen dann auch ansprechen kann. Die Komplexität eines solchen Systems ergibt sich aus den verschiedenen Teilbereichen, wie Sprachsynthese, Objekterkennung, Bewegung und mehr. Die KI Lösung von TensorFlow erlaubt es bspw. Objekte zu erkennen oder Bewegungen nachzuarmen und vieles mehr.
Dazu muss man keine Universität sein und ein entsprechend umfangreiches Budget haben. Projekte wie InMoov zeigen, dass jede(r) eigentlich mit wenig Geld auch einen Roboter bauen kann. Vorausgesetzt wir haben einen 3D Drucker und die entsprechenden Kenntnisse in einer Programmiersprache wie Python. Als Herz und Gehirn kann bereits ein Einplatinencomputer reichen, wie ein Raspberry Pi 4. Darüber hatte ich bereits ja in einigen beiträgen berichtet. Das Video zeigt wie es mir jetzt gelungen ist, dass die Maschine bzw. der Computer oder künftige Roboter Objekte erkennt und die erkannten Objekte anzeigt und ausspricht.
Das ist die Brücke hin zu Sprache. Am Beispiel von InMoov könnten wir nun die Kamera bzw. Kameras auch in einem oder beiden Augen verbauen. Verfeinert man das TensorFlow Modell kann der Roboter dann seinen Besitzer erkennen und ihn an Stelle von "Person" mit dessen Namen ansprechen. Über bspw. Google Assitenten und den Zugriff auf Googles großes Wissen ist so ein Roboter im Handumdrehen ein ziemlich schlauer Alltagshelfer.
Natürlich ist es nochmals eine Herausforderung einem solchen Roboter auch direkte Befehle zu erteilen, damit er bspw. seinen Kopf zu uns hindreht oder nach einem Gegenstand greift. An meinem Beispiel kann man aber bereits feststellen wie ein solcher Roboter schon viel lebendiger wirkt nur wenn er bereits das aussprechen kann was er sieht. Daran weiter zu arbeiten und am Ende dann eine Art C-3PO zu besitzen ist natürlich ein sehr umfangreiches Projekt und birgt viele Herausforderungen.
Dass, wie ich nunmal ganz alleine umsetzen zu müssen braucht Zeit. Ich denke es könnte aber ein tolles Schulprojekt sein oder würde mehr Spaß machen es zusammen zu schaffen. Ich brauche meinen Roboter dann aber später auch nicht mit anderen zu teilen. Nein, Spaß bei Seite. Es ist spannend und es ist großartig.
0 notes