Der „perfekte“ Lehrassistent? Universitäten finden neue Einsatzmöglichkeiten für KI

Ob es darum geht, Shakespeares Stimme zu kanalisieren, Rubriken für Lehrer zu erstellen oder Schülern zu zeigen, wenn sie von einem Deepfake getäuscht werden: Die neue Welle von Werkzeugen der künstlichen Intelligenz wird diesen Herbst von Lehrkräften an Universitäten angenommen – und nicht nur in den Informatiklabors, in denen sie tätig sind wurden entwickelt.

Da die Technologie sowohl in der Wirtschaft als auch im Alltag immer stärker verankert wird, kommt der postsekundären Bildung laut Dozenten eine entscheidende Rolle dabei zu, den Schülern zu helfen, die Chancen und Gefahren zu verstehen, die KI-Tools mit sich bringen.

Patrick Pennefather, Assistenzprofessor in der Abteilung für Theater und Film an der University of British Columbia, ist einer derjenigen, die generative KI diesen Herbst in seine Kurse einbauen, und sagt, dass sie eine leistungsstarke Brainstorming-Hilfe sein kann.

„Es kann verschiedene Aspekte der gesamten kreativen Pipeline unterstützen“, sagte er.

Eine Übung besteht darin, ChatGPT – eine der beliebtesten generativen KIs, die in der Lage ist, Texte und Bilder von Grund auf zu erstellen – zu verwenden, um neue Stücke im Stil von William Shakespeare zu schreiben.

„Ich bin daran interessiert zu verstehen: ‚Hey, was denkt Macbeth, der historische Macbeth, darüber, wie sie im Stück dargestellt wurden?‘ Macbeth?‘“

Generative KI hat in der Wissenschaft Bedenken hinsichtlich ihres Potenzials für Plagiate geweckt – beim Schreiben von Code für Computeraufgaben oder sogar ganzen Aufsätzen. (Matej Kastelic/Shutterstock)

Shakespeares Stück basiert auf der Geschichte eines schottischen Königs aus dem 11. Jahrhundert. Studenten fragen ChatGPT seine Antwort im Shakespeare-Stil zu schreiben. Aber was dabei herauskommt, wird noch lange kein fertiges Produkt sein, sagt Pennefather.

„Mit dieser generativen KI, die menschliches Engagement, Interaktion, Feinabstimmung und Verfeinerung erfordert, werden Sie nie genau das bekommen, was Sie wollen“, sagte er.

Von dort aus wird ein Autor das Drehbuch ausarbeiten und verbessern, das dann an einen Regisseur und Schauspieler weitergegeben wird.

Sie werden es weiter optimieren und mehr Material in die KI stecken, um visuelle Elemente zu erzeugen – zum Beispiel einen Hintergrund, der zur Umgebung passt – oder sie könnten KI und Motion-Capture-Technologie nutzen, um Material für eine animierte Version zu erstellen.

Lesen Sie auch  Clay Holmes‘ albtraumhafter neunter Platz beendet die Siegesserie der Yankees zum siebten Mal mit einer Niederlage gegen die Mariners

Der Einsatz von KI in kreativen Bereichen war umstritten und ist ein prominentes Thema in den anhaltenden Streiks von Hollywood-Autoren und -Schauspielern. Pennefather sagt, dass er glaubt, dass es den Kreativen gelingt, die Kontrolle darüber zu haben, wie sie generative KI nutzen, und dass sie das Eigentum an dem behalten, was sie schaffen. würde dazu beitragen, die Probleme, die bei den Streiks eine Rolle spielen, zu mildern.

„Wie können wir diese Technologie übernehmen und ein Teil davon sein, anstatt das Gefühl zu haben, dass wir oder unsere Inhalte von Dritten genutzt werden? Und wir haben keine Kontrolle darüber und keine Entschädigung für diese Nutzung?“ ” er sagte.

HÖREN | KI im Klassenzimmer:

Frontbrenner20:46ChatGPT an der Universität: nützliches Tool oder Cheat-Hack?

„Das ist meine optimistische Sichtweise – dass KI das Kreative nicht ersetzen oder ersetzen wird, sondern dabei helfen wird, ihren eigenen Prozess zu verbessern.“

Pennefather sagt Es ist wichtig, dass die Schüler mit generativer KI in Kontakt kommen und einige der ethischen Fragen aufwerfen, wie etwa Urheberrecht, Voreingenommenheit und Stereotypen.

KIs könnten beispielsweise Stereotypen verbreiten, wenn sie aufgefordert würden, Bilder zu erzeugen, sagt er. Wenn man beispielsweise Midjourney, eine weitere beliebte generative KI, bittet, sich eine „Kriegerin“ auszudenken, wird das zum Beispiel zu verblüffenden Ergebnissen führen.

„Höchstwahrscheinlich werden Sie Federn bekommen, Sie werden eine Anspielung auf die Ureinwohner bekommen, oder? Wie kommt es?“ er sagte. „Wie kam es dazu, dass dieses Modell des maschinellen Lernens darauf trainiert wurde, voreingenommen zu sein?“

Solche Fälle seien eine „erstaunliche“ Chance für Studierende, ihre eigene Voreingenommenheit zu analysieren und „über sie nachzudenken“, sagte er.

Das ChatGPT-Logo ist auf einem Mobiltelefon zu sehen.
Berichten zufolge hat eine Gruppe ehemaliger Inhaltsmoderatoren in Nairobi, die im Auftrag von OpenAI, dem Unternehmen hinter ChatGPT, arbeiten, eine Untersuchung der sogenannten ausbeuterischen Bedingungen gefordert. (Richard Drew/germanic)

Möglicherweise problematisch

Auch die Entwicklung dieser generativen KI sei potenziell problematisch gewesen, sagt Ebrahim Bagheri, der ein interuniversitäres Forschungsprogramm zur verantwortungsvollen Entwicklung von KI leitet.

Beghari sagt, dass die Menschen, die im globalen Süden für niedrige Löhne arbeiten und die Daten, die zum Training von KIs verwendet werden, kennzeichnen, sensiblen Inhalten ausgesetzt sind.

Letzten Monat berichtete The Guardian, dass eine Gruppe ehemaliger Content-Moderatoren in Nairobi, die im Auftrag von OpenAI, dem Unternehmen hinter ChatGPT, arbeiteten, eine Untersuchung der sogenannten ausbeuterischen Bedingungen forderte und behauptete, sie müssten Texte und Bilder mit anschaulicher Gewalt selbst überprüfen -Schaden, Bestialität und Inzest.

Lesen Sie auch  Wimbledon LIVE: Roger Federer kehrt zu SW19 zurück, als die Fans in der Warteschlange einen schweren Schlag versetzten | Tennis | Sport

Unabhängig davon berichtete Time, dass OpenAI-Inhaltsmoderatoren in Kenia weniger als 2 US-Dollar pro Stunde erhielten.

Beghari sagt, es sei wichtig, Studenten über ethische Fragen im Zusammenhang mit der KI-Entwicklung aufzuklären.

„Fühlen Sie sich wohl … mit Technologie, die nicht richtig entwickelt wurde?“

Paula MacDowell unterrichtet andere Lehrer in ihrer Rolle als Assistenzprofessorin für Lehrplanstudien an der University of Saskatchewan. Sie arbeitet mit ihren Klassen daran, eine gleitende Skala dafür zu erstellen, wann der Einsatz von KI sinnvoll sein könnte.

Ein Kopfschuss eines Universitätsprofessors.
Paula MacDowell von der University of Saskatchewan unterstützt Lehrer dabei, generative KI so einzusetzen, dass sie produktiver arbeiten und mehr Zeit für die Interaktion mit Schülern haben. (Eingereicht von Paula MacDowell)

Zum Beispiel, Sie sieht seinen Wert als „Peer-Redakteurin“ Feedback zur Arbeit der Schüler auf die gleiche Art und Weise zu geben, wie sie es in der Vergangenheit möglicherweise von ihren Klassenkameraden getan hätten.

„Die Schüler müssen nachdenken und denken: ‚Nun, stimmt dieses Feedback mit meiner Denkweise und dem, was ich mit dem Projekt machen möchte, überein?‘ Und sie tun dasselbe mit Peer-Feedback“, sagte sie.

Lehrer könnten KI auch nutzen, um schnell Rubriken zu erstellen oder Unterrichtspläne zu differenzieren, um zu versuchen, den individuellen Bedürfnissen der Schüler gerecht zu werden, sagt sie.

ANSEHEN | Eine Warnung zur KI:

Er half bei der Entwicklung der KI. Jetzt befürchtet er, dass es die Menschheit zerstören wird

Der kanadisch-britische Pionier der künstlichen Intelligenz, Geoffrey Hinton, sagt, er habe Google verlassen, weil ihm die jüngsten Entdeckungen über KI klar machten, dass sie eine Bedrohung für die Menschheit darstellt. CBC-Chefkorrespondentin Adrienne Arsenault spricht mit dem „Paten der KI“ über die damit verbundenen Risiken und darüber, ob es eine Möglichkeit gibt, sie zu vermeiden.

„Hoffentlich [AI] Tools können Lehrern helfen, produktiver zu sein, sodass sie tatsächlich mehr Zeit für die Schüler haben und einige dieser Beziehungen aufbauen können.“

Als ChatGPT zum ersten Mal Schlagzeilen machte, gab es in der Wissenschaft weit verbreitete Bedenken hinsichtlich seines Potenzials für Plagiate. Die generative KI kann leicht zum Betrügen genutzt werden – zum Schreiben von Code für Rechenaufgaben oder sogar für ganze Aufsätze, ohne dass wirkliches Lernen stattfindet.

Lesen Sie auch  Umfrage: Pessimismus in Bezug auf Lebensqualität und Lebenshaltungskosten herrscht unter den Wählern der Metropolregion Portland

„Perfekter“ Assistent

Aber an der Universität von Moncton sagt Prof. Moulay Akhloufi, Leiter des Labors für Wahrnehmung, Robotik und intelligente Maschinen, dass es eine nützliche Lehrhilfe für Informatikstudenten sein kann.

ChatGPT sei „der perfekte Lehrassistent“, sagte er, da es rund um die Uhr Fragen beantworten und Schülern beim Testen ihres Codes helfen könne.

Er erkennt die Notwendigkeit an, kritisch über die darin gegebenen Ratschläge und das Plagiatsrisiko nachzudenken, sagt jedoch, dass es unmöglich sei, zu überwachen, was Schüler außerhalb des Klassenzimmers tun.

„Ich denke, wir müssen uns weiterentwickeln und darüber nachdenken, diese Tools bestmöglich zu nutzen“, sagte er. „Ich sehe sie als eine Hilfe in der Bildung, wenn man sie richtig nutzt und wenn wir den Schülern beibringen, wie man sie nutzt.“

Ebenso wichtig ist es laut MacDowell, dass KI-Tools nicht in einer Weise eingesetzt werden, die die Lehrer-Schüler-Beziehung beeinträchtigt. Sie ist beispielsweise der Meinung, dass KI nicht dazu verwendet werden sollte, Kommentare zu Zeugnissen zu verfassen oder den Schülern Feedback zu geben.

„Feedback sollte persönlicher sein. Es sollte relationaler sein. Es sollte bedeutungsvoller sein“, sagte sie.

Da sich die KI-Technologie weiter verbessert, besteht laut MacDowell ein immer größeres Potenzial für die Generierung von Fehlinformationen, beispielsweise durch Deepfakes – wenn KI verwendet wird, um die Stimme und das Bild echter Menschen zu imitieren.

„Es wird bald sehr schwer zu sagen sein, ob etwas echt oder gefälscht ist“, sagte sie. Daher ist es wichtig, den Schülern beizubringen, was KI leisten kann, und dazu gehört auch, dass sie mit den Werkzeugen selbst arbeiten.

Es bestehe ein „echter Bedarf“ an kritischem Denken und Wissen über die Leistungsfähigkeit von KI-Tools, sagt sie. „Und in der Lage zu sein, die Informationsquellen sehr genau zu identifizieren und wie wir möglicherweise dazu verleitet werden, Dinge zu glauben, die tatsächlich nicht wahr sind.“

Eine Frau fotografiert einen humanoiden Roboter mit durchsichtigem Schädel.
Ein humanoider Roboter wird am 5. Juli auf einem KI-Gipfel in Genf, Schweiz, gesehen. (Martial Trezzini/Keystone/germanic)

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.