HomePanoramaChat-GPT als qualitätsgesicherter Berufsberater?

Chat-GPT als qualitätsgesicherter Berufsberater?

Der AMS-Chef berichtete vergangene Woche gegenüber „heute“, dass Chat-GPT – also künstliche Intelligenz – im Bereich der Berufsberatung zum Einsatz käme. Noch handele es sich um ein Pilotprojekt, aber er hofft auf bundesweite Implementierung. Kurz darauf machte eine Untersuchung Schlagzeilen, die aufzeigte, dass Chat-GPT 4 im Laufe der Zeit immer schlechter würde. Kopf schwadroniert hingegen von Qualitätssicherung im AMS mittels Chat-GPT.

Wien. Im Sommerinterview mit der Gratiszeitung „heute“ verrät AMS-Chef Johannes Kopf, dass Chat-GPT AMS-Berater werden soll, beziehungsweise es in einer Testphase schon ist. 

Leistung von GPT‑4 bei einigen Aufgaben schlechter 

Unterdessen wurde eine Studie von Forscherinnen und Forscher der Universitäten Stanford und Berkeley veröffentlicht, der zufolge GPT‑4, bei den getesteten Aufgaben im Laufe der Zeit immer schlechter abgeschnitten habe. Wenngleich Kritik an der Datengrundlage der Studie geübt wurde, räumte auch OpenAI, das Unternehmen, das Chat-GPT entwickelt hat, ein, dass die Leistung von GPT‑4 bei einigen Aufgaben schlechter sein könnte.

Pilotprojekt: Chat-GPT als Berufsberater

Beim Arbeitsmarktservice (AMS) habe man ein Pilotprojekt mit Chat-GPT gestartet, berichtet Kopf. Es wurde hierfür eine Berufsberatung mit Chat-GPT programmiert. Wenngleich der AMS-Chef zugibt, dass man bei der Beschäftigung mit Chat-GPT auf Fehler stößt, hält er fest, dass man, wenn man sich das länger anschaut, sagen könne, mit welchen Methoden man diese Fehler ausschließen kann.

Durch den Einsatz der Technologie sollen qualitätsgesicherte Informationen zur Berufsberatung gewährleistet werden. Es soll beziehungsweise wird über das Programm abgefragt: „Welche Berufe gibt es, was muss man da lernen, was verdient man da, wie sind die Jobaussichten?“ Das bereits angelaufene Pilotprojekt geht noch bis September und Kopf hofft im Anschluss auf einen bundesweiten Einsatz.

Hoffnungen in Technik projiziert: Bias und Fehler statt Objektivität

In dem Gespräch mit dem AMS-Chef zeigen sich die großen Hoffnungen, die er in diese Technik projiziert. Eine vermeintlich qualitätsgesicherte Beratung würde stattfinden, da Technik und Künstliche Intelligenz insbesondere bei Laien dazu führt, dass Objektivität und Effizienz unterstellt wird. In diesem Zusammenhang werden sowohl technische Fehler als auch der Bias, der KI und Algorithmen innewohnt, bewusst oder unbewusst ausgeblendet. KI und Algorithmen sind ein Produkt von Menschen und kritische Technikforschung betont, dass hierdurch auch Vorurteile und Werthaltungen in diese eingeschrieben sind. Nicht, dass dies bei einem menschlichen AMS-Berater oder einer AMS-Beraterin nicht der Fall ist. In diesem wird es jedoch anerkannt und ist benennbarer.

Soziale Probleme mit Technik lösen?

Technik gilt vielfach als Legitimierung und fehlerfrei, was beim Einsatz in der Berufsberatung und dem Umgang mit Arbeitslosen sicherlich ein wichtiger Aspekt ist. Es vermittelt das Gefühl, ein soziales Problem, das der Arbeitslosigkeit, das dem Kapitalismus eingeschrieben ist, mittels Technik vermeintlich zu lösen oder zumindest bestmöglich zu bearbeiten. On top, wird auch noch potenziell Personal eingespart, was das Ganze natürlich noch attraktiver macht. 

Quelle: heute/Der Standard/Business Insider

- Advertisment -spot_img
- Advertisment -spot_img

MEIST GELESEN