Eine Untersuchung der Universität des Saarlandes hat ergeben, dass Entwickler Vorschläge von KI-Assistenten weniger kritisch hinterfragen. Das Forschungsteam unter der Leitung von Sven Apel stellte fest, dass die Lernprozesse schwächer ausfallen, wenn Studierende beim Programmieren mit GitHub Copilot arbeiten.
Weniger kritische Auseinandersetzung mit KI-Vorschlägen
Apel erklärte, dass menschliche Partner in der Programmierung tendenziell mehr Fragen stellen, umfassender diskutieren und stärker voneinander lernen. In den Teams, die mit KI arbeiteten, konzentrierte sich die Interaktion häufig ausschließlich auf den Code.
Studienaufbau und Ergebnisse
Die Forscher ließen 19 Studierende in Paaren arbeiten: sechs in menschlichen Gruppen und sieben mit KI-Unterstützung. Laut Apel neigten die KI-Nutzer dazu, Vorschläge oft ohne kritische Prüfung zu übernehmen, da sie davon ausgingen, dass der Code bereits korrekt sei. Er warnte, dass dies zu späteren Fehlern führen könne, die erheblichen Aufwand nach sich ziehen. Apel betonte, dass KI bei einfachen Aufgaben hilfreich ist, jedoch komplexe Probleme weiterhin den menschlichen Austausch erfordern.
Bildquelle: Shutterstock