December 9, 2023

In:N: Anno di ChatGPT rilasciato da OpenAIL’insegnante di scuola superiore Vicki Davis rivede ogni compito che assegna ai suoi studenti. Davis, che insegna informatica alla Sherwood Christian Academy in Georgia, era ben posizionato per essere uno dei primi ad adottare la tecnologia. È anche il direttore IT della scuola e a marzo ha contribuito a sviluppare una politica sull’intelligenza artificiale; la scuola ha deciso di consentire l’uso di strumenti di intelligenza artificiale per progetti specifici a condizione che gli studenti ne discutessero con i loro insegnanti e taggassero lo strumento. Nella mente di Davies, c’erano usi buoni e cattivi dell’intelligenza artificiale, e ignorare la sua crescente popolarità non avrebbe aiutato gli studenti a scoprirne gli usi efficaci o a comprenderne i pericoli.

“In realtà è cambiato il modo in cui progetto i miei progetti, perché a volte voglio che i miei studenti utilizzino l’intelligenza artificiale, e poi ci sono momenti in cui non voglio che la usino”, ha detto Davis. “Cosa sto cercando di insegnare qui? È questo un uso corretto dell’intelligenza artificiale o no?”

Come gli insegnanti negli Stati Uniti e nel Regno Unito, Davis, che gestisce anche il blog educativo Cool Cat Teacher, ha trascorso l’estate pensando a cosa potrebbe significare per lei il rilascio della tecnologia.

L’intelligenza artificiale generativa può creare immagini del Papa con un bomber e rispondere a quasi tutti i problemi di matematica, quindi cosa può fare per gli studenti? Educatori come lui hanno giocato con gli strumenti e hanno cercato di capire come funzionavano, come potevano essere utili a insegnanti e studenti e, cosa forse più importante, come il software poteva essere utilizzato in modo improprio. Alcuni hanno adottato misure drastiche, arrivando al punto di rinunciare ai compiti prima che la tecnologia fosse disponibile.

“Sembra di essere in una specie di laboratorio che sperimenta con i nostri figli perché sta cambiando così rapidamente”, ha detto Davis. “Se mi chiedessi di qualcuno di loro questo autunno, non potrei dirtelo perché ChatGPT non esisteva.”

Nella classe senior di Davis, ha vietato l’uso di chatbot per la programmazione perché, fino a poco tempo fa, il College Board, che amministra test standardizzati come il SAT, non consentiva l’assistenza dell’intelligenza artificiale per la programmazione. (Questo era recentemente cambiato consentire l’uso dell’intelligenza generativa come strumento aggiuntivo.) Ma ha cambiato il progetto annuale che assegna per incorporare l’intelligenza artificiale nel processo. Davis in genere chiede agli studenti di ricercare gli attuali modelli di laptop e valutare quale sia la soluzione migliore in base a dove vogliono andare al college e cosa vogliono studiare. Ora chiede agli studenti di portare la ricerca sulle opzioni del PC su ChatGPT e chiedere una raccomandazione in base alla specializzazione e al college scelti. Agli studenti viene quindi chiesto di valutare la raccomandazione ChatGPT. Il suo obiettivo è mostrare agli studenti come possono utilizzare le proprie conoscenze e ricerche sull’argomento per aiutarli a controllare meglio l’intelligenza artificiale.

Gli insegnanti che hanno parlato con il Guardian hanno affermato che la loro sfida principale era aiutare gli studenti a iniziare a utilizzare l’intelligenza artificiale senza dare loro la possibilità di imbrogliare. Incombente sulle loro aule futuristiche c’è il timore che l’eccessivo affidamento a questi nuovi strumenti possa esacerbare la perdita di apprendimento che molti studenti hanno subito durante la pandemia. Gli studenti sono tornati all’apprendimento individuale solo dopo due anni lontani, quando OpenAI ha lanciato ChatGPT, e molti erano ancora alle prese con il duro colpo inferto alla loro capacità di apprendere o impegnarsi a scuola.

“C’è così tanto trauma e l’intelligenza artificiale non può aiutarmi in questo”, ha detto Kevin Schindel, un insegnante di scuola superiore nel Maryland.


UNDopo un’estate trascorsa a sperimentare l’intelligenza artificiale, c’è poco consenso tra gli educatori su come affrontare il suo utilizzo nelle scuole. Molti educatori del gruppo Facebook ChatGPT for Teachers, composto da quasi 370.000 persone, sostengono che l’uso diffuso dei chatbot basati sull’intelligenza artificiale è inevitabile e discutono con entusiasmo i modi migliori per utilizzare questi strumenti per rendere il loro lavoro più efficace e i loro studenti imparano. Altri insegnanti con cui il Guardian ha parlato hanno suggerito di vietare agli studenti di utilizzare gli strumenti finché non avessero imparato di più sulla tecnologia alla base.

Tuttavia, altri si sono concentrati principalmente sulla mitigazione di eventuali frodi con l’aiuto dell’intelligenza artificiale; alcuni hanno smesso del tutto di assegnare i compiti, scegliendo invece di far svolgere ai propri studenti un lavoro supervisionato in classe. Alcuni insegnanti richiedono addirittura agli studenti di sostenere esami scritti o di scrivere a mano le prime bozze di saggi in classe per assicurarsi che abbiano le idee da soli.

Ma tutti quelli con cui il Guardian ha parlato erano d’accordo. non importa dove lo usi, gli insegnanti di tutto il mondo hanno difficoltà a tenere il passo con gli strumenti di intelligenza artificiale generativa in continua evoluzione.

Schindel, insegnante di scuola pubblica in una scuola superiore di 3.300 studenti nel Maryland, insegnava ai suoi studenti come l’intelligenza artificiale influisce sul governo e sulla politica da 15 anni, ma non era preparata alla rapidità con cui le persone avrebbero adottato ChatGPT. Ha trascorso l’estate imparando e testando diversi chatbot e a luglio ha presentato le sue scoperte al consiglio scolastico in una presentazione di 38 diapositive intitolata: La promessa e il pericolo di ChatGPT nella classe di oggi.”

Schindel ha testato i partecipanti con attività guidate da ChatGPT e ha posto domande sull’etica del suo utilizzo (“Come sarebbe l’etica dell’uso e della protezione dei dati?”). Infine, ha esortato il consiglio scolastico a elaborare una politica distrettuale.

“Gli insegnanti da soli non dovrebbero essere responsabili della definizione delle politiche scolastiche”, ha affermato Schindel. “Ci deve essere uno sforzo concertato e sistematico.”

Schindel non crede che gli insegnanti e i politici sappiano abbastanza su come i chatbot raccolgono informazioni personali sugli studenti o su come prevenire gli imbrogli per consentire agli studenti di usarli. Teme inoltre che gli strumenti possano esacerbare la mancanza di coinvolgimento degli studenti derivante dall’apprendimento a distanza. Studenti e insegnanti sono ancora scossi dall’impatto della pandemia, ha detto Schindel. Recentemente, la Harvard Graduate School of Education studio hanno concluso che lo studente medio della scuola pubblica dalle classi dalla terza all’ottava era indietro di sei mesi in matematica e lettura e che quasi tutti gli studenti non erano in grado di recuperare l’apprendimento perduto quando tornavano all’istruzione individualizzata. Un 2021 Una revisione di 10 studi Un rapporto sull’epidemia di perdita di apprendimento del Dipartimento dell’Istruzione del Regno Unito ha rilevato che “gli alunni svantaggiati delle scuole medie inferiori sono sproporzionatamente al di sotto delle aspettative”, con molti alunni che restano indietro fino al 50%.

“Ho diverse lezioni che sono quasi completamente silenziose. Gli studenti non comunicano tra loro e non rispondono ad alcuna domanda,» Shindel ha detto:

Sebbene possano essere in minoranza, altre scuole hanno fatto progressi nella definizione delle politiche sull’IA. La Little Falls High School nel Minnesota ha deciso di vietare completamente l’uso di strumenti di intelligenza artificiale oltre a una politica anti-cheat a livello scolastico. La politica di classe di Davis consente l’uso di determinati strumenti, ma richiede agli studenti di chiedere l’autorizzazione e di rivedere i riferimenti che AI ​​cita come fonti. La professoressa di filosofia dell’Università della Georgia Kimberly Van Orman, che attualmente tiene un corso sull’etica dell’intelligenza artificiale, afferma che l’attenzione è rivolta alla trasparenza. Van Orman richiede ai suoi studenti di includere il messaggio e la risposta che hanno digitato nel chatbot in qualsiasi attività per cui lo utilizzano, per assicurarsi che “non lo utilizzino in un modo che sostituisca l’apprendimento”.

“Se stai cercando di comprendere un concetto da un libro e vuoi parlarne con ChatGPT, va bene”, ha detto Van Orman. “Consultarlo per il tuo problema con i compiti non servirebbe a nulla.”


D:Negli ultimi anni sono emerse molte applicazioni di intelligenza artificiale per gli studenti. Photomath, ad esempio, supera le versioni attuali di ChatGPT e si presenta come l’app numero 1 per l’apprendimento della matematica. Gli utenti possono caricare un’immagine di un problema di matematica o di un’equazione e l’app fornirà loro la risposta con le spiegazioni. Ma diversi insegnanti hanno affermato che gli studenti hanno iniziato a usarlo durante la pandemia per ingannare o almeno sostituire la “lotta produttiva” che porta all’apprendimento. Inevitabilmente, gli studenti che si sono affidati a Photomatia durante la pandemia hanno avuto difficoltà al ritorno in classe, hanno affermato diversi insegnanti.

Ma esistono anche strumenti che consentono semplicemente di rinunciare a fornire una risposta agli studenti. Khanmigo, un insegnante di intelligenza artificiale gestito dall’organizzazione no-profit Khan Academy, è invece addestrato a porre domande che portino gli studenti a comprendere meglio il materiale. Quando il Guardian ha posto a Khanmigo una domanda di programmazione di base (implementare una cache con Javascript scaduto), il chatbot ha risposto: “Non posso fornire risposte o soluzioni dirette ai problemi di codifica.” Quando a Guardian è stato chiesto di risolvere z nell’equazione “3z = 15” e ha risposto più volte “Non lo so”, l’insegnante di intelligenza artificiale ha continuato a guidarlo su come risolverlo finché non ha finalmente fornito quattro opzioni a scelta multipla . Khanmigo ha dato la risposta corretta più velocemente quando il Guardiano ha risposto due volte con la risposta sbagliata. ChatGPT, invece, ha fornito una soluzione immediata in entrambi i casi.

Il fondatore della Khan Academy, Sal Khan, afferma che l’organizzazione ha trascorso migliaia di ore ad addestrare il sistema basato su ChatGPT-4 per capire che non dovrebbe svolgere il lavoro delle persone per loro. “Abbiamo detto cose come: “Sei un educatore socratico, sei qui per far sì che gli studenti imparino attivamente, non solo passivamente”, ha detto.

Sebbene siano ancora in fase sperimentale, questi processi di formazione sono ciò che differenzia un tutor AI da uno strumento cheat AI, afferma Khan.

“L’anno prossimo, in questo periodo, ci saranno 50 (aziende) che affermeranno di avere un mentore sull’intelligenza artificiale”, ha detto Khan. “Ma probabilmente il 90% di loro sarà un po’ losco, e metteranno semplicemente un piccolo strato sopra ChatGPT-3.5. Saranno per lo più strumenti di inganno, non buoni.

Leave a Reply

Your email address will not be published. Required fields are marked *