Trier (dpa) – Laut Trierer IT-Experte Ralph Bergmann sind Textbots wie ChatGPT und andere Programme der künstlichen Intelligenz (KI) „letztlich nur Werkzeuge“.
Sie setzten Menschen ein, „damit wir unsere Arbeit besser oder schneller erledigen oder damit wir mit der Fülle an verfügbaren Informationen besser umgehen können“, sagte ein Professor für Wirtschaftsinformatik an der Universität Trier der Deutschen Presse-Agentur. Bergmann leitet den Bereich erfahrungsbasierte Lernsysteme am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern.
KI soll Menschen bei der Arbeit unterstützen
ChatGPT ist eine Anwendung, die künstliche Intelligenz verwendet, um umfassende Antworten auf Texteingaben zu generieren. Ein Textroboter kann unter anderem Fragen in verschiedenen Sprachen beantworten, Texte zusammenfassen und bewerten, Lieder schreiben oder Computerprogramme schreiben.
Es gehe immer nur darum, Menschen bei ihrer Arbeit zu unterstützen oder sie von Routinetätigkeiten zu befreien, sagte Bergmann. „Kreative wissenschaftliche Arbeit wird weiterhin in den Händen menschlicher Wissenschaftler liegen. Arbeitsmethoden und Werkzeuge werden sich ändern, aber das war in der Wissenschaftsgeschichte schon immer so“, ist er überzeugt.
„Zum einen könnten KI-basierte Chatbots in Zukunft einen besseren Zugang zu Informationen bieten als aktuelle Internet-Suchmaschinen oder Recherchefunktionen in Literaturdatenbanken“, so Bergmann. „In Zukunft“ sei zu erwarten, „dass sie in der Lage sein werden, fokussierte wissenschaftliche Erkenntnisse aus Publikationen zu extrahieren, zusammenzufassen und miteinander zu verknüpfen“.
Der Einsatz von Textrobotern in Schulen und Universitäten
Bergmann hält ‚überhaupt nichts‘ von Forderungen, die Kontrolle von Schulen oder Universitäten zu verbieten“, sagte er. „Diese Tools müssen sinnvoll in die Ausbildung an Schulen und Universitäten integriert und ihr Einsatz damit gezielt adressiert werden Schüler, Studenten und Auszubildende lernten, mit diesen Werkzeugen produktiv, aber auch kritisch umzugehen“, betonte er.
„Wir werden in Zukunft auch spezialisierte Modelle sehen, die speziell für bestimmte Disziplinen optimiert sind und damit noch besser in Unternehmen eingesetzt werden können“, so der Wissenschaftler.
Einsatzmöglichkeiten würden seiner Meinung nach „künftig stark zunehmen, insbesondere überall dort, wo historische Daten, in welcher Form auch immer, verfügbar sind und genutzt werden können“. Dies betrifft sowohl die Wissenschaft als auch die Wirtschaft und erstreckt sich auf alle Bereiche und Branchen, wie Medizin und Life Sciences, Produktion, Handwerk, aber auch Verwaltung.
Das Bewertungsproblem ist eher zweitrangig
Doch wie sollten Lehrkräfte mit dem Einsatz von Textbots und anderen Tools der künstlichen Intelligenz (KI) in Schulen umgehen? Die Landesvorsitzende der Philologischen Vereinigung Rheinland-Pfalz, Cornelia Schwartz, betont, dass den Studierenden klar sein müsse, dass Quellenkritik sehr wichtig sei, wenn es beispielsweise um ChatGPT gehe.
„Das Bewertungsproblem ist nicht unsere Priorität“. Hausaufgaben seien schon immer schwer zu benoten gewesen, „weil man sich nie sicher sein konnte, inwieweit die Hausaufgaben tatsächlich selbstständig gemacht wurden“.
Auswege aus diesem Dilemma sind zum Beispiel eine Präsentation mit anschließender Evaluation oder ein Test. Bei der Erstellung einer Facharbeit – längere Hausarbeit im Gymnasium als Vorbereitung auf eine wissenschaftliche Arbeit – ist es wichtig, dass ChatGPT als Autor aufgeführt ist, dass der Beitrag des Textroboters gekennzeichnet ist und dass der Schüler in das Thema eingedrungen ist.
© dpa-infocom, dpa:230313-99-933622/5