Studenten, die in diesem Frühjahr von Hochschulen und Universitäten neu aufgenommen wurden, werden von E-Mails und Texten überschwemmt, in der Hoffnung, dass sie ihre Einzahlungen tätigen und sich einschreiben. Wenn sie Fragen zu Fristen, finanzieller Unterstützung und sogar zu Restaurants auf dem Campus haben, können sie sofort Antworten erhalten.
Die Nachrichten sind freundlich und informativ. Aber viele von ihnen sind nicht von Menschen.
Künstliche Intelligenz oder KI wird verwendet, um diese scheinbar persönlichen Appelle abzuschießen und vorab geschriebene Informationen durch Chatbots und Text-Personas zu liefern, die menschliche Scherze imitieren sollen. Es kann einer Universität oder einem College helfen, indem es die Frühbucherraten erhöht und gleichzeitig teure und zeitaufwändige Anrufe für überlastete Zulassungsmitarbeiter reduziert.
KI hat sich seit langem stillschweigend auf solche Weise in die Hochschulbildung eingebettet, oft um Geld zu sparen – ein Bedarf, der durch pandemiebedingte Budgetkürzungen noch verstärkt wurde.
Hochschulen und COVID-19:Rutgers, Cornell Mandat Impfstoffe für Studenten. Ist das die neue Norm?
Zu einfachen AI-gesteuerten Tools wie diesen Chatbots, Plagiatserkennungssoftware und Apps zur Rechtschreib- und Grammatikprüfung kommen neue, leistungsfähigere und kontroversere Anwendungen hinzu, die akademische Fragen beantworten, Aufgaben zuweisen, Klassen empfehlen und sogar unterrichten.
Die neuesten können die Persönlichkeitsmerkmale und die wahrgenommene Motivation der Bewerber bewerten und bewerten, und die Hochschulen verwenden diese Tools zunehmend, um Zulassungs- und Finanzhilfeentscheidungen zu treffen.
Mit zunehmender Präsenz dieser Technologie auf dem Campus wächst auch die Besorgnis darüber. In mindestens einem Fall wurde ein scheinbar vielversprechender Einsatz von KI bei Zulassungsentscheidungen gestoppt, da durch die Verwendung von Algorithmen zur Bewertung von Bewerbern auf der Grundlage historischer Prioritäten die Voreingenommenheit aufrechterhalten wurde.
Ein Großteil der von Hochschulen und Universitäten verwendeten KI-gestützten Software beschränkt sich nach wie vor auf ziemlich alltägliche Aufgaben wie die Verbesserung des Back-Office-Workflows, sagte Eric Wang, Senior Director von AI bei Turnitin, einem Dienst, mit dem viele Institutionen auf Plagiate prüfen.
“Wo man anfängt, Dinge zu sehen, die etwas besorgniserregender werden”, sagte er, “ist, wenn die KI Entscheidungen mit höheren Einsätzen trifft.”
Dazu gehört die Vorhersage, wie gut die Studierenden bei Zulassung abschneiden könnten, und die Beurteilung ihres finanziellen Bedarfs.
Hunderte von Hochschulen abonnieren private Plattformen, die intensive Datenanalysen über vergangene Klassen durchführen und diese verwenden, um Bewerber für die Zulassung anhand von Faktoren wie der Wahrscheinlichkeit ihrer Einschreibung, der Höhe der benötigten finanziellen Unterstützung, der Wahrscheinlichkeit ihres Abschlusses und zu bewerten wie wahrscheinlich es ist, dass sie engagierte Alumni sind.
Menschen machen immer die letzten Anrufe, sagen diese Colleges und die KI-Unternehmen, aber KI kann ihnen helfen, das Feld einzugrenzen.
Was ist Titel IX?:Das Gesetz, das verwendet wurde, um für Transrechte und die Gleichstellung der Geschlechter zu kämpfen, wurde erklärt.
Die Universitäten in Baylor, Boston und Wake Forest haben unter anderem das kanadische Unternehmen Kira Talent verwendet, das ein Bewertungssystem anbietet, mit dem die „Persönlichkeitsmerkmale und Soft Skills“ eines Bewerbers anhand eines aufgezeichneten, von der KI geprüften Videos bewertet werden können, das der Student einreicht. Eine Unternehmenspräsentation zeigt, wie Schüler in Bereichen wie Offenheit, Motivation, Verträglichkeit und „Neurotizismus“ auf einer Fünf-Punkte-Skala bewertet werden.
Die New York University, die Southeast Missouri State University und andere Schulen haben einen Dienst namens Element451 genutzt, der das Erfolgspotenzial von potenziellen Kunden anhand der Interaktion mit der Website einer Schule und der Reaktion auf deren Nachrichten bewertet.
Das Ergebnis ist 20-mal aussagekräftiger als die alleinige demografische Analyse, so das Unternehmen.
Nach der Zulassung erhalten viele Studenten jetzt Nachrichten von Unternehmen wie AdmitHub, das für eine anpassbare Chatbot- und Textnachrichtenplattform wirbt, die das Unternehmen als “Konversations-KI” bezeichnet, um akzeptierte Bewerber dazu zu bewegen, Einzahlungen zu tätigen. Das Unternehmen hat nach eigenen Angaben im Auftrag von Hunderten von Universitäts- und Hochschulkunden mehr als 3 Millionen Studenten auf diese Weise erreicht.
Die Georgia State University, die Pionierarbeit bei der Verwendung dieser Chatbots geleistet hat, gibt an, dass ihre Version mit dem Namen Pounce seit ihrem Start im Jahr 2016 Hunderttausende von Antworten auf Fragen potenzieller Studenten geliefert und die „Sommerschmelze“ reduziert hat – die Häufigkeit von Studenten, die sich für das Programm anmelden Frühling, aber im Herbst nicht zu sehen – um 20%.
Der Staat Georgia war auch einer der ersten, der kostengünstige, stets verfügbare KI-Lehrassistenten entwickelte, die bereit waren, Fragen der Schüler zu Kursmaterial zu beantworten. Ihre heißt Jill Watson, und Studien ergaben, dass einige Schüler nicht sagen konnten, dass sie sich mit KI beschäftigten und keine menschliche Lehrassistentin waren.
Die Staffordshire University in England bietet Studenten einen „digitalen Freund“, einen KI-Lehrassistenten namens Beacon, der Lesequellen empfehlen und Studenten mit Tutoren verbinden kann. Die australische Deakin University hat einen KI-Assistenten namens Genie, der weiß, ob ein Schüler, der eine Frage stellt, sich mit bestimmten Online-Kursmaterialien beschäftigt hat, und der die Standorte und Aktivitäten der Schüler überprüfen kann, um festzustellen, ob sie die Bibliothek besucht haben, oder ihnen mitteilen kann, wann sie auch ausgegeben haben lange im Speisesaal und fordern sie auf, sich zu bewegen.
Viele Hochschulen verwenden zunehmend KI, um Schüler zu benoten, da Online-Klassen zu groß werden, als dass Ausbilder dies gut verwalten könnten.
Die Pandemie hat den Wechsel zu solchen Klassen beschleunigt. Doch schon vorher arbeitete die Southern New Hampshire University – mit 97% ihrer fast 150.000 Studenten, die ausschließlich online waren – daran, wie KI verwendet werden kann, um eine große Anzahl von Studenten schnell zu bewerten, sagte Faby Gagne, Geschäftsführerin für Forschung und Entwicklung Arm.
Die SNHU nutzt AI auch nicht nur, um Schüler zu benoten, sondern um sie zu unterrichten. Gagne hat damit experimentiert, dass KI Dinge wie Sprache oder Bewegung oder die Geschwindigkeit, mit der ein Schüler auf Videokurse reagiert, überwacht und diese Informationen verwendet, um Erfolge zu erzielen.
Turnitin, bekannt für die Überprüfung auf Plagiate, verkauft auch Produkte zum Verständnis der KI-Sprache, um subjektive schriftliche Arbeiten zu bewerten. Ein Tool kann schriftliche Aufgaben in Stapeln sortieren, sodass ein Lehrer einen Fehler korrigieren oder nur einmal eine Anleitung geben kann, anstatt denselben Fehler immer wieder hervorzuheben, zu kommentieren und zu bewerten. Das Unternehmen sagt, dass die Ausbilder überprüfen, ob die Maschine die richtige Bewertung vorgenommen hat und dass sie durch das Eliminieren sich wiederholender Arbeiten mehr Zeit zum Unterrichten haben.
KI-Werkzeuge werden auch an Hochschulen verkauft, um Entscheidungen zu treffen, die einmal von der Fakultät getroffen wurden. ElevateU verwendet beispielsweise KI, um Schülerdaten zu analysieren und den Schülern individuelle Lerninhalte bereitzustellen, die darauf basieren, wie sie Fragen beantwortet haben. Wenn das Programm feststellt, dass ein bestimmter Schüler mit einer Videolektion besser abschneidet als mit einer schriftlichen, erhält er diese.
Einige Untersuchungen legen jedoch nahe, dass KI-Tools falsch sein oder sogar gespielt werden können. Ein Team am MIT verwendete einen Computer, um einen im Wesentlichen bedeutungslosen Aufsatz zu erstellen, der dennoch alle Eingabeaufforderungen enthielt, nach denen ein AI-Aufsatzleser sucht. Die KI gab dem Kauderwelsch eine hohe Punktzahl.
In Spanien beantwortete ein KI-Bot namens Lola mehr als 38.700 Schülerfragen mit einer Genauigkeit von 91,7% – was bedeutet, dass mindestens 3.200 falsche oder unvollständige Antworten ausgegeben wurden.
“KI allein ist kein guter Richter für menschliches Verhalten oder menschliche Absichten”, sagte Jarrod Morgan, der Gründer und Chief Strategy Officer von ProctorU, den die Schulen einstellen, um die Tests zu verwalten und zu beobachten, die die Schüler online durchführen. “Wir haben festgestellt, dass die Leute darin besser sind als Maschinen, so ziemlich auf ganzer Linie.”
Die Universität von St. Thomas in Minnesota gab an, ein KI-System getestet, aber nicht eingesetzt zu haben, mit dem die Mimik der Schüler gescannt und analysiert werden kann, um festzustellen, ob sie mit dem Material beschäftigt sind oder es verstehen. Das System würde Professoren oder anderen sofort mitteilen, welche Studenten sich langweilen oder welche Punkte in einer Vorlesung wiederholt oder wiederholt werden müssen.
Und Forscher an der University of California in Santa Barbara untersuchten, ob Schüler durch animierte als durch reale Lehrer mehr emotionale Verstärkung erhielten, und stellten fest, dass die Schüler zwar Emotionen sowohl bei menschlichen als auch bei animierten Lehrern erkannten, jedoch eine stärkere und genauere Wahrnehmung von Emotionen hatten wie “glücklich” und “frustriert”, wenn die Ausbilder Menschen waren.
Viele Leute “denken, KI sei schlauer als Menschen”, sagte Wang von Turnitin. „Aber die KI sind wir. Es ist ein Spiegel, der uns zu uns reflektiert, und manchmal auf sehr übertriebene Weise. “ Diese Art und Weise, sagte Wang, unterstreicht, dass die Daten, die KI häufig verwendet, eine Aufzeichnung dessen sind, was die Menschen in der Vergangenheit getan haben. Das ist ein Problem, weil “wir eher dazu neigen, Empfehlungen anzunehmen, die unsere Persönlichkeit stärken.”
Genau das geschah mit GRADE, dem GRaduate ADmissions Evaluator, einem KI-Bewertungssystem, das vom Graduiertenprogramm für Informatik an der University of Texas in Austin entwickelt und verwendet wurde. GRADE prüfte die Anträge und vergab die Bewertungen auf der Grundlage der Wahrscheinlichkeit der Zulassung durch ein Überprüfungskomitee. Ziel war es, den Zeitaufwand für die Überprüfung des zunehmenden Antragsstapels zu reduzieren, den GRADE durchgeführt hat, und die Überprüfungszeit um 74% zu verkürzen.
Aber Die Universität hat GRADE letztes Jahr fallen lassenund waren sich einig, dass es das Potenzial hatte, oberflächliche Verzerrungen bei der Bewertung zu wiederholen – einige Anträge wurden nicht bewertet, weil sie gut waren, sondern weil sie wie die Arten von Anträgen aussahen, die in der Vergangenheit genehmigt worden waren.
Diese Arten von verstärkenden Vorurteilen, die in der KI auftreten können, können „zunächst und häufig getestet werden“, sagte Kirsten Martin, Professorin für Technologieethik an der Universität Notre Dame. “Aber die Universitäten würden einen Fehler machen, wenn sie der Meinung wären, dass die Automatisierung von Entscheidungen sie irgendwie von ihren ethischen und rechtlichen Verpflichtungen entbindet.”
Diese Geschichte wurde von The Hechinger Report produziert, einer gemeinnützigen, unabhängigen Nachrichtenorganisation, die sich auf Ungleichheit und Innovation in der Bildung konzentriert. Melden Sie sich für unseren Hochschul-Newsletter an.