Linki do źrodeł
UpraszczAI GOV - GPT do upraszczania tekstów stworzony przez Tomasz Piekota - bardzo polecam!
https://chatgpt.com/g/g-6807efa2fd748191a7fe501685edcb69-upraszczai-gov
Mój GPT do poprawiania błędów typograficznych i literówek:
https://chatgpt.com/g/g-6836df9da0288191bffb1e980dd67855-dobra-tresc-ai
Słownik
System prompt – wewnętrzna instrukcja, która określa tożsamość, ton i sposób działania modelu językowego. To coś w rodzaju scenariusza lub zestawu zasad, według których model ma się zachowywać w każdej rozmowie. System prompt definiuje jego rolę („jesteś doświadczoną UX writerką”), granice tematyczne (np. „odpowiadaj tylko w kontekście projektowania treści”) oraz styl (np. „pisz jasno i konkretnie”). Nie zmienia się w trakcie interakcji – działa w tle, wpływając na każdą odpowiedź modelu. W aplikacjach opartych na AI to właśnie on sprawia, że model „ma charakter” i reaguje w sposób spójny z założeniami twórcy.
Input prompt – polecenie lub pytanie wpisywane przez użytkownika w trakcie rozmowy z modelem. Jest dynamiczne i zmienia się w zależności od kontekstu. Input prompt uruchamia działanie modelu, który odpowiada zgodnie z zasadami zapisanymi w system prompt. Może mieć formę pytania, opisu sytuacji, instrukcji lub przykładu. Dobrze zaprojektowany input prompt zawiera jasny cel, kontekst i oczekiwany efekt – dzięki temu model generuje odpowiedź, która jest precyzyjna i użyteczna. W praktyce to kluczowy element tzw. prompt engineeringu, czyli umiejętności rozmawiania z modelami językowymi.
Własny GPT – spersonalizowana wersja modelu językowego (np. ChatGPT), którą można skonfigurować pod określony temat, ton, grupę odbiorców lub zastosowanie. Własny GPT ma zapisany system prompt (czyli instrukcję działania) i może korzystać z dodatkowych danych, np. plików, źródeł wiedzy czy linków. Działa jak dedykowany asystent – może wspierać w nauce, odpowiadać na pytania o produkt lub pomagać w określonym procesie (np. projektowaniu treści). To przykład wykorzystania AI w formie narzędzia edukacyjnego lub eksperckiego.
Lokalny model LLM – model językowy zainstalowany i uruchamiany na własnym komputerze lub serwerze, bez połączenia z chmurą. Działa w oparciu o te same zasady co komercyjne LLM-y, ale użytkownik ma pełną kontrolę nad danymi i prywatnością. Takie modele są coraz częściej wykorzystywane w firmach, które chcą korzystać z AI, ale nie mogą wysyłać danych poza swoją infrastrukturę. Przykładami są mniejsze modele open source (np. Mistral, LLaMA czy Gemma), które można dopasować do własnych potrzeb.
Własne modele językowe – modele LLM tworzone, trenowane lub dostosowywane do konkretnych zastosowań. Mogą być budowane od podstaw (na własnych danych) albo powstawać poprzez tzw. fine-tuning, czyli dostrajanie istniejącego modelu. Własny model językowy pozwala lepiej odzwierciedlić styl komunikacji marki, branżową terminologię lub sposób pracy organizacji. W przeciwieństwie do gotowych modeli w chmurze, daje większą kontrolę nad wynikami i bezpieczeństwem danych, ale wymaga zaplecza technicznego i odpowiednich kompetencji.
Kompleksowy kurs projektowania tekstów do interfejsów
✏️ 38 lekcji wideo
✏️ 15 kreatywnych ćwiczeń
✏️ notatki i listy kontrolne do pobrania
✏️ nauka o narzędziach projektowych (Miro, Notion, Framer)
✏️ wiedza o systemach no-code (do samodzielnego tworzenia produktów)
✏️ tworzenie portfolio i certyfikat ukończenia kursu
✏️ możliwość dokupienia konsultacji indywidualnych
