Simon Egli
Erstellte Foren-Antworten
-
Simon Egli
Mitglied13. November 2023 um 10:48 als Antwort auf: Welche Fragen beschäftigen dich zur KI?Meine Frage bezieht sich auf die aktuellen Beschränkungen von GPT4-Turbo:
- Obwohl die Turbo Variante 128K Tokens verarbeiten kann, wird die Präzision mit steigendem Umfang immer tiefer (siehe Paper von OpenAI). Macht es Sinn auf solche Beschränkungen hinzuweisen (gegenüber SuS)?
- GPT4-Turbo ist in der Lizenz relativ teuer. Gibt es hier bereits Möglichkeiten, die API als Schule zu “mieten” und dann per Tokens zu zahlen? (Ganz ähnlich wie bei der Enterprise Variante) -> Wie teuer wäre das? Wann macht das Sinn?
- Welche Drittanbieter gibt es, die GPT4-Turbo zusammen mit passenden Plugins (zB zur Erhöhung der Mathefähigkeiten) für die Schule nutzen und wie teuer sind diese? (evtl. KhanAcademy)?
- Neu können ja benutzerdefinierte GPTs bei Open AI gemacht werden? Wird dies bereits für die Schule genutzt?
- Wie erklären sie den Lernenden GPTs auf den verschiedenen Stufen? Die Wissenschaft ist sich hier ja selbst noch nicht ganz einig, ob neuronale Netzwerke näher bei einem stochastischen Papagei sind, oder ab wann von emergenten Fähigkeiten gesprochen werden kann?
- Kann rechtlich ChatGPT auch mit Lernenden unter 13 Jahren genutzt werden? Wenn ja, wie? Es muss immer eine Telefonnummer hinterlegt werden…
- Aktuell ist die Nutzung von Claude und Googles eigener AI Produkten in der Schweiz noch schwierig. Aber welche Produkte bieten hier den besten Datenschutz und zu welchem Preis? (ChatGPT Enterprise ist hier vermutlich führend)
- Sollten die Lernenden bereits trainiert werden im richtigen Prompting (wenngleich diese Fähigkeiten schätzungsweise in einem Jahr bereits wieder der Vergangenheit angehören)? Zum Beispiel ist es von Vorteil die Texte in Abschnitten für Zusammenfassungen zu geben oder auch wenn Infos abgefragt werden sollen, da GAN nur recht oberflächlich funktioniert. Der Fileupload ist somit nur begrenzt zu empfehlen.
Abgesehen davon: Sollen die Lernenden auch mit offenen Modellen von Huggingface arbeiten dürfen (natürlich zensierte Varianten). Diese eher noch in den Kinderschuhen steckenden Modellen können die Limitationen von GPT Modellen recht gut zeigen. Es gibt aber auch schon recht gute Modelle. Zum Beispiel performen fine getunte Varianten von Mistral 7B auch in quantifizierter Variante schon recht gut (https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard) . Diese Modelle können lokal auch mit “schwächeren Geräten” sicher genutzt werden, da sie offline nutzbar sind. Dafür bieten sie natürlich nicht das gleiche Alignement wie OpenAI.
(https://lmstudio.ai/)-> UserinterfaceNatürlich gibt es hier auch noch weitere Möglichkeiten zB über Pinokio AI
(Ich studiere im Master die Didaktik der Medien und Informatik an der PH Schwyz, darum die eher detaillierteren Fragen) =)
- Diese Antwort wurde in vor 1 Jahr um Simon Egli geändert.