Skip to content

Commit 57c5d34

Browse files
added links
1 parent 7a1886c commit 57c5d34

File tree

1 file changed

+1
-1
lines changed
  • docs/TeachingMaterials/AI/ollama

1 file changed

+1
-1
lines changed

docs/TeachingMaterials/AI/ollama/hbgm.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -72,7 +72,7 @@ Verwende Python für den Serverseitigen Code. Am Client ist JavaScript zu verwen
7272

7373
Binde die Ollama Python Schnittstelle in ein Django-Projekt ein. Du kannst aber auch ein anderes Webframework verwenden, wenn du willst. Auf der Webseite soll es ein Eingabefeld geben sowie die Möglichkeit Bilder und PDFs hochzuladen. Wenn ein PDF hochgeladen wird, soll dieses als ein Bild je Seite an das Modell llama3.2-vision:11b übergeben werden. Falls dein PC dieses Modell nicht ausführen kann, kannst du auch ein kleineres nehmen.
7474

75-
Die gestreamte Antwort des Models soll dann schrittweise am Client angezeigt werden. Antwortet der User, soll der gesamte Chatverlauf an das Model geschickt werden. Nur so kennt es den Kontext um bessere Antworten liefern zu können. Packe dazu Das JSON und den CSRF-Token in ein FormData-Objekt. Die Rückmeldung des Modells soll dann dynamisch in einem div-Container hinzugefügt werden.
75+
Die gestreamte Antwort des Models soll dann schrittweise am Client angezeigt werden, siehe [Beispielprojekt](https://github.com/edilio/StreamingHttpResponse/tree/master). Antwortet der User, soll der gesamte Chatverlauf an das Model geschickt werden. Nur so kennt es den Kontext um bessere Antworten liefern zu können. Packe dazu das JSON und den CSRF-Token in ein [FormData](https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest_API/Using_FormData_Objects)-Objekt. Die Rückmeldung des Modells soll dann dynamisch in einem div-Container hinzugefügt werden.
7676

7777

7878
## Weitere Informationen

0 commit comments

Comments
 (0)