<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Witamy w ONESTEP AI | ONESTEP AI</title><link>/pl/docs/</link><atom:link href="/pl/docs/index.xml" rel="self" type="application/rss+xml"/><description>Witamy w ONESTEP AI</description><generator>Hugo Blox Builder (https://hugoblox.com)</generator><language>pl</language><image><url>/media/icon_hu_908612668243e257.png</url><title>Witamy w ONESTEP AI</title><link>/pl/docs/</link></image><item><title>Predyktor</title><link>/pl/docs/predictor/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>/pl/docs/predictor/</guid><description>&lt;p&gt;Aby zapoznać się z przewodnikiem wizualnym, sprawdź samouczek na naszym kanale Youtube:&lt;/p&gt;
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;"&gt;
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share; fullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/YewgL-oK6tY?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"&gt;&lt;/iframe&gt;
&lt;/div&gt;
&lt;p&gt;Predictor służy do przewidywania/definiowania/kategoryzowania obrazów w zbiorze danych przy użyciu wcześniej wytrenowanego modelu. Aby dokonać predykcji, przejdź do &lt;code&gt;Posiadanych zbiorów danych&lt;/code&gt; i kliknij wybrany zbiór danych.&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Zbiór danych" srcset="
/media/pl/predyktor/predyktor_1_hu_acfc6b078c25cc3f.webp 400w,
/media/pl/predyktor/predyktor_1_hu_f6e7611e426a31f4.webp 760w,
/media/pl/predyktor/predyktor_1_hu_df717e271aaddee9.webp 1200w"
src="/media/pl/predyktor/predyktor_1_hu_acfc6b078c25cc3f.webp"
width="760"
height="405"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Kliknij przycisk &lt;code&gt;Predyktor&lt;/code&gt;, a następnie wybierz typ modelu: &lt;code&gt;detekcja&lt;/code&gt; lub &lt;code&gt;klasyfikacja&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Wybierz typ modelu" srcset="
/media/pl/predyktor/predyktor_2_hu_fb18724fdab687c1.webp 400w,
/media/pl/predyktor/predyktor_2_hu_4ad9add4d0be564d.webp 760w,
/media/pl/predyktor/predyktor_2_hu_15a6cd5c9d580cf0.webp 1200w"
src="/media/pl/predyktor/predyktor_2_hu_fb18724fdab687c1.webp"
width="760"
height="405"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;W zależności od wybranego typu modelu widoczne będą różne parametry predyktora.&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Parametry predykcyjne dla klasyfikacji" srcset="
/media/pl/predyktor/predyktor_3_hu_5138c5e78bb6b143.webp 400w,
/media/pl/predyktor/predyktor_3_hu_dd902d4a6a0c6f6.webp 760w,
/media/pl/predyktor/predyktor_3_hu_b73bd12f59dcfc45.webp 1200w"
src="/media/pl/predyktor/predyktor_3_hu_5138c5e78bb6b143.webp"
width="760"
height="403"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Parametry predykcyjne dla detekcji" srcset="
/media/pl/predyktor/predyktor_4_hu_34dea3e8205b9317.webp 400w,
/media/pl/predyktor/predyktor_4_hu_b544f64d2efd727b.webp 760w,
/media/pl/predyktor/predyktor_4_hu_24cced34acd1b7ac.webp 1200w"
src="/media/pl/predyktor/predyktor_4_hu_34dea3e8205b9317.webp"
width="760"
height="404"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Minimalne zaufanie określa minimalną precyzję wystarczającą do zaakceptowania danej predykcji i utworzenia na jej podstawie odpowiedniej kategorii klasyfikacji lub adnotacji dla obrazu.&lt;/p&gt;
&lt;p&gt;Ustawienia trybu predyktora określają, które obrazy w zbiorze danych będą sprawdzane przez predyktor.&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Wybierz model" srcset="
/media/pl/predyktor/predyktor_5_hu_c74eaea9f2d00d2e.webp 400w,
/media/pl/predyktor/predyktor_5_hu_f82b7485da386a94.webp 760w,
/media/pl/predyktor/predyktor_5_hu_aa080b294c5e208b.webp 1200w"
src="/media/pl/predyktor/predyktor_5_hu_c74eaea9f2d00d2e.webp"
width="760"
height="389"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Po wybraniu typu modelu i jego parametrów można przejść do ostatniego kroku - wyboru modelu. Model określa, który z wcześniej wytrenowanych modeli detekcji lub klasyfikacji zostanie wybrany do przewidywania. Kliknij wybrany model i potwierdź, klikając przycisk &lt;code&gt;Tak&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Potwierdź wybór" srcset="
/media/pl/predyktor/predyktor_6_hu_e8d4bc5835e6ba69.webp 400w,
/media/pl/predyktor/predyktor_6_hu_f35aaf949b0e697c.webp 760w,
/media/pl/predyktor/predyktor_6_hu_af8883ed4d574e85.webp 1200w"
src="/media/pl/predyktor/predyktor_6_hu_e8d4bc5835e6ba69.webp"
width="436"
height="178"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Po uruchomieniu, podobnie jak w przypadku
, predyktor będzie działał w tle, trwając dłużej lub krócej w zależności od rozmiaru zbioru danych. Postęp można wyświetlić na panelu głównym.&lt;/p&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="Panel główny" srcset="
/media/pl/predyktor/predyktor_7_hu_23b3f6455f6a0ee6.webp 400w,
/media/pl/predyktor/predyktor_7_hu_b8672b3b5e8cd7f0.webp 760w,
/media/pl/predyktor/predyktor_7_hu_60d943ea65f1d582.webp 1200w"
src="/media/pl/predyktor/predyktor_7_hu_23b3f6455f6a0ee6.webp"
width="760"
height="106"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Po zakończeniu predykcji otrzymasz powiadomienie, a kliknięcie go przeniesie Cię do zbioru danych z nowymi klasyfikacjami lub adnotacjami.&lt;/p&gt;</description></item><item><title>API</title><link>/pl/docs/api/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>/pl/docs/api/</guid><description>&lt;p&gt;ONESTEP AI udostępnia publiczne API dla wszystkich zalogowanych użytkowników. Obejmuje ono pełną funkcjonalność portalu.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Wybierz swój region:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://app-eu.onestepai.com/api/swagger/index.html" class="btn btn-primary"&gt;ONESTEP AI EU&lt;/a&gt; lub
&lt;a href="https://app-us.onestepai.com/api/swagger/index.html" class="btn btn-primary"&gt;ONESTEP AI US&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Autoryzacja odbywa się za pośrednictwem strony internetowej OSAI lub
. Bardziej szczegółowe instrukcje można znaleźć w artykule dotyczącym
lub w interfejsie API, klikając przycisk &lt;code&gt;Autoryzuj&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Kody statusu odpowiedzi HTTP:&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kod statusu&lt;/th&gt;
&lt;th&gt;Opis {class=&amp;ldquo;compact&amp;rdquo;}&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;200 - OK&lt;/td&gt;
&lt;td&gt;Żądanie powiodło się.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;400 - Bad Request&lt;/td&gt;
&lt;td&gt;Serwer nie może lub nie chce przetworzyć żądania z powodu czegoś, co jest postrzegane jako błąd klienta.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;401 - Unauthorized&lt;/td&gt;
&lt;td&gt;Chociaż standard HTTP określa „nieautoryzowany”, semantycznie ta odpowiedź oznacza „nieuwierzytelniony”. Oznacza to, że klient musi się uwierzytelnić, aby uzyskać żądaną odpowiedź.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Aby zapoznać się z interfejsem API, można znaleźć kilka przykładów korzystania z usługi w sekcji Jak korzystać z interfejsu API.&lt;/p&gt;
&lt;p&gt;Kliknij jeden z poniższych linków, aby pobrać podręcznik Python:&lt;/p&gt;
&lt;p&gt;
&lt;br&gt;
&lt;/p&gt;
&lt;h2 id="webhooki"&gt;Webhooki&lt;/h2&gt;
&lt;p&gt;Wdrożyliśmy system webhooków, aby usprawnić pracę z OSAI za pomocą API. Webhooki to sposób, w jaki aplikacje lub usługi mogą wysyłać powiadomienia w czasie rzeczywistym do innych aplikacji lub usług. Działają one w oparciu o prostą koncepcję: gdy w aplikacji wystąpi określone zdarzenie lub wyzwalacz, wysyła ona żądanie HTTP POST do predefiniowanego adresu URL, zawierającego odpowiednie informacje o zdarzeniu.&lt;/p&gt;
&lt;p&gt;Nasz system webhooków pobiera informacje o zakończeniu zadań
(np. konwersja, manipulacja, przewidywanie, szkolenie, ponowne szkolenie, wypożyczenie urządzenia) i wysyła je pod wskazany adres. Aby skorzystać z tej funkcji, przejdź do naszej dokumentacji API (
lub
) zlokalizuj żądane zadanie i podaj swój adres URL. Upewnij się, że adres URL jest osiągalny, prawidłowo skonfigurowany i zdolny do odbierania i obsługi przychodzących żądań HTTP. Po zakończeniu zadania otrzymasz żądanie HTTP POST. To żądanie poinformuje Cię, czy zadanie zostało pomyślnie zakończone lub czy proces roboczy napotkał jakieś problemy po drodze.&lt;/p&gt;</description></item><item><title>Słownik</title><link>/pl/docs/glossary/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>/pl/docs/glossary/</guid><description>&lt;p&gt;Aby ułatwić korzystanie z tej dokumentacji, utworzono słowniczek. Znajdziesz tu definicje kluczowych terminów, które możesz napotkać podczas korzystania z ONESTEP AI.&lt;/p&gt;
&lt;h2 id="adres-ip"&gt;Adres IP&lt;/h2&gt;
&lt;p&gt;Numeryczny identyfikator przypisany do: interfejsu sieciowego, grupy interfejsów (broadcast, multicast) lub całej sieci komputerowej w protokole IP. Identyfikuje elementy sieci wewnątrz i na zewnątrz sieci lokalnej (tzw. adres publiczny).&lt;/p&gt;
&lt;h2 id="adnotacja"&gt;Adnotacja&lt;/h2&gt;
&lt;p&gt;Adnotacja obrazu przechowuje informacje o oznaczeniach opisujących przedstawione obiekty oraz wszelkie dodatkowe informacje, w zależności od wybranego standardu.&lt;/p&gt;
&lt;h2 id="aigorithm"&gt;AI&amp;rsquo;GORITHM&lt;/h2&gt;
&lt;p&gt;AI&amp;rsquo;GORITHM to aplikacja do tworzenia algorytmów, która umożliwia praktyczne wykorzystanie modeli ONESTEP wyszkolonych w zakresie sztucznej inteligencji w szerokim zakresie scenariuszy. Celem jest umożliwienie użytkownikom niezależnego opracowywania własnych aplikacji końcowych, które mogą następnie wdrażać na własnych lub wypożyczonych urządzeniach, tworząc unikalne środowisko AI.&lt;/p&gt;
&lt;h2 id="aispector"&gt;AI&amp;rsquo;SPECTOR&lt;/h2&gt;
&lt;p&gt;AI&amp;rsquo;SPECTOR to system przeznaczony dla doświadczonych użytkowników, stanowiący alternatywę dla AI&amp;rsquo;VIEWER. Działa w sposób ciągły, uruchamiając algorytmy w nieskończoność, aż do ręcznego zatrzymania, zapewniając nieprzerwane przetwarzanie i monitorowanie. Dodatkowo może działać zgodnie z harmonogramem ustalonym przez użytkownika, który może skonfigurować różne przedziały czasowe dla każdego dnia tygodnia. System ten pozwala na wykonywanie algorytmów stworzonych w AI&amp;rsquo;GORITHM, umożliwiając użytkownikom parametryzację tych algorytmów poprzez wybór określonych danych wejściowych, takich jak podłączone kamery lub przesłane filmy.&lt;/p&gt;
&lt;h2 id="aiviewer"&gt;AI&amp;rsquo;VIEWER&lt;/h2&gt;
&lt;p&gt;Aplikacja instalowana na urządzeniu brzegowym w celu uruchomienia wytrenowanego i odpowiednio zoptymalizowanego modelu sieci neuronowej. Model może być używany na obrazie z kamery podłączonej do urządzenia i przesyłającej strumieniowo wideo w czasie rzeczywistym lub na pliku foto/wideo.&lt;/p&gt;
&lt;h2 id="dnn-głęboka-sieć-neuronowa"&gt;DNN (głęboka sieć neuronowa)&lt;/h2&gt;
&lt;p&gt;Głęboka sieć neuronowa (DNN, Deep Neural Network) to sztuczna sieć neuronowa z wieloma warstwami pomiędzy warstwą wejściową a warstwą wyjściową. Istnieją różne rodzaje sieci neuronowych, ale zawsze składają się z tych samych elementów: neuronów, synaps, wag, wartości przesunięcia oraz funkcji. Te komponenty działają w sposób podobny do ludzkiego mózgu i mogą być trenowane jak każdy inny algorytm uczenia maszynowego.&lt;/p&gt;
&lt;h2 id="detekcja"&gt;Detekcja&lt;/h2&gt;
&lt;p&gt;Rozpoznanie, tj. informacja zwrócona przez model sieci neuronowej, że obiekt danej kategorii został wykryty w danym obszarze obrazu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="dokładność"&gt;Dokładność&lt;/h2&gt;
&lt;p&gt;Miara skuteczności rozpoznawania modelu sieci neuronowej. Zazwyczaj reprezentuje procent poprawnych rozpoznań w stosunku do wszystkich, obliczonych na danym zestawie danych innym niż zestaw treningowy.&lt;/p&gt;
&lt;h2 id="dokładność-walidacji"&gt;Dokładność walidacji&lt;/h2&gt;
&lt;p&gt;Dokładność obliczona na podzbiorze walidacyjnym.&lt;/p&gt;
&lt;h2 id="epoka"&gt;Epoka&lt;/h2&gt;
&lt;p&gt;Jedna iteracja uczenia modelu sieci neuronowej, wykonywana na całym zbiorze danych (tj. jednokrotne przejście przez wszystkie obrazy).&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="epoki-rozgrzewkowe"&gt;Epoki rozgrzewkowe&lt;/h2&gt;
&lt;p&gt;Początkowe iteracje treningu; „rozgrzewka”, podczas której szybkość uczenia zmienia się dynamicznie.&lt;/p&gt;
&lt;p&gt;Pierwsze n partii (iteracji) zwiększy szybkość uczenia się zgodnie ze wzorem: $current\_learning\_rate = learning\_rate ⋅ \left({\frac{iterations}{n}}\right)^{power}$, gdzie domyślnie power = 4. Ten parametr nie może być większy niż maksymalna ilość partii danych.&lt;/p&gt;
&lt;h2 id="etykieta"&gt;Etykieta&lt;/h2&gt;
&lt;p&gt;Etykieta oznaczająca obiekt i zawierająca informacje o jego lokalizacji i nazwie (kategorii/klasie).&lt;/p&gt;
&lt;h2 id="ekspozycja"&gt;Ekspozycja&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W procesie rozszerzania danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Losowa zmiana ekspozycji (jasności) podczas treningu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="format-wyjściowy"&gt;Format wyjściowy&lt;/h2&gt;
&lt;p&gt;Jednym z ustawień Manipulatora jest format wyjściowy zdjęć - JPG lub PNG. Jeśli wybierzesz JPG, pamiętaj, że nowo wygenerowane zdjęcia stracą warstwę alfa odpowiedzialną za przezroczystość.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="funkcja-metryczna"&gt;Funkcja metryczna&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="funkcja-straty"&gt;Funkcja straty&lt;/h2&gt;
&lt;p&gt;Funkcja straty to funkcja, która oblicza odległość między bieżącym wynikiem algorytmu a oczekiwanym wynikiem. Jest to metoda oceny sposobu, w jaki algorytm modeluje dane. Można je podzielić na dwie grupy. Jedna dla klasyfikacji (wartości dyskretne, 0,1,2&amp;hellip;), a druga dla regresji (wartości ciągłe) -
&lt;/p&gt;
&lt;h2 id="framework"&gt;Framework&lt;/h2&gt;
&lt;p&gt;Zestaw gotowych narzędzi z gotowymi modelami i środowiskiem programistycznym, dostępny dla programistów w celu ułatwienia i standaryzacji ich pracy nad rozwiązaniami sztucznej inteligencji.&lt;/p&gt;
&lt;h2 id="iteracja"&gt;Iteracja&lt;/h2&gt;
&lt;p&gt;Czynność polegająca na powtarzaniu tej samej operacji w pętli określoną liczbę razy lub do momentu spełnienia określonego warunku.&lt;/p&gt;
&lt;p&gt;W kontekście sieci neuronowych odnosi się to do powtarzalnej czynności uczenia się, a następnie weryfikowania efektów tego uczenia się w celu stopniowej poprawy dokładności i zmniejszenia strat.&lt;/p&gt;
&lt;h2 id="jasność"&gt;Jasność&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W Manipulatorze zbioru danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Parametryzacja jasności dla obrazów świeżo wygenerowanych przez operację &lt;em&gt;Jasność i Kontrast&lt;/em&gt;.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="jasność-i-kontrast"&gt;Jasność i kontrast&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W Manipulatorze zbioru danych&lt;/em&gt;:&lt;/p&gt;
&lt;p&gt;Operacja używana do zmiany jasności i/lub kontrastu obrazu. Na podstawie zestawu obrazów wejściowych (lub, jeśli nie jest to pierwsza operacja, już wygenerowanych danych), tworzy liczbę nowych obrazów określoną w parametrze. Stosowany tutaj wzór to:&lt;/p&gt;
&lt;p&gt;$α⋅i(x,y)+β$&lt;/p&gt;
&lt;p&gt;Gdzie:&lt;/p&gt;
&lt;p&gt;$α$ - parametr odpowiedzialny za zmianę kontrastu w zakresie &lt;code&gt;[0,1-3,0]&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;$i(x,y)$ - wartość wejściowego piksela obrazu o współrzędnych $x$ i $y$&lt;/p&gt;
&lt;p&gt;$β$ - parametr odpowiedzialny za zmianę jasności w zakresie &lt;code&gt;[0,255]&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Każdy utworzony obraz będzie miał wartość jasności będącą sumą wartości oryginalnej i losowej wartości z zakresu [-β,β]. Parametr α, odpowiadający za kontrast, również zostanie wygenerowany losowo, z uwzględnieniem dolnej i górnej wartości określonej w parametrze (nie mogą one wykraczać poza zakres określony powyżej).&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="kategoria"&gt;Kategoria&lt;/h2&gt;
&lt;p&gt;Używane zamiennie z:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;kategorią klasyfikacyjną (tj. kategorią do trenowania modelu klasyfikacyjnego, w którym każdy obraz należy tylko do jednej kategorii)&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;lub&lt;/p&gt;
&lt;ol start="2"&gt;
&lt;li&gt;kategorią adnotacji detekcyjnej (tj. kategorią do trenowania modelu detekcji, w którym obraz ma przypisane 0 lub więcej kategorii obiektów wraz z ich współrzędnymi położenia).&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Możliwe jest łączenie kategorii. Powoduje to utworzenie nadkategorii, która zawiera parametry podkategorii wybranych przez użytkownika. Superkategoria w OSAI nazywana jest kubełkiem.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="klasyfikacja"&gt;Klasyfikacja&lt;/h2&gt;
&lt;p&gt;Przez klasyfikację rozumiemy nadanie całemu obrazowi jednej kategorii lub klasy, która definiuje obiekt przedstawiony na obrazie.&lt;/p&gt;
&lt;h2 id="klonowanie"&gt;Klonowanie&lt;/h2&gt;
&lt;p&gt;Proces tworzenia dokładnych kopii istniejących zbiorów danych.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="kubełek"&gt;Kubełek&lt;/h2&gt;
&lt;p&gt;Kontener kategorii. Wszystkie dodane do niego kategorie zostaną połączone w jedną kategorię odpowiadającą nazwie kubełka, ale tylko w kontekście określonego szkolenia. Pierwotnie zdefiniowane kategorie pozostaną nienaruszone.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="kąt"&gt;Kąt&lt;/h2&gt;
&lt;p&gt;Kąt obrotu zdjęcia, ustawiony w sekcji Obrót Manipulatora zbioru danych. Zdjęcie jest obracane o kolejne wielokrotności ustawionego kąta, aż osiągnie 360 stopni lub do osiągnięcia limitu zdjęć wygenerowanych z jednego dla operacji obrotu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="kontrast"&gt;Kontrast&lt;/h2&gt;
&lt;p&gt;Zakres zmiany kontrastu dla nowo wygenerowanych obrazów wyświetlany w skali od 0,1 do 3,0.&lt;/p&gt;
&lt;h2 id="konwersja"&gt;Konwersja&lt;/h2&gt;
&lt;p&gt;Proces przekształcania modelu z formatu początkowego do formatu docelowego. Niektóre informacje mogą zostać utracone w tym procesie, co powoduje niewielką utratę precyzji. Jednak konwersja zwykle poprawia ogólną wydajność modelu.&lt;/p&gt;
&lt;p&gt;OSAI automatycznie wybiera odpowiedni format, zapewniając rozwiązanie zoptymalizowane pod kątem docelowego sprzętu.&lt;/p&gt;
&lt;h1 id="kontradyktoryjne-uczenie-maszynowe"&gt;Kontradyktoryjne uczenie maszynowe&lt;/h1&gt;
&lt;p&gt;Zmienia wszystkie wykryte obiekty tak, aby wyglądały inaczej z punktu widzenia sieci neuronowej. W ten sposób sieć neuronowa przeprowadza atak na samą siebie.&lt;/p&gt;
&lt;h2 id="macierz-błędów"&gt;Macierz błędów&lt;/h2&gt;
&lt;p&gt;Macierz reprezentująca liczbę poprawnych i niepoprawnych rozpoznań modelu w danym testowym zbiorze danych. Porównuje ona kategorie, które powinny zostać rozpoznane (wiersze) z kategoriami rozpoznanymi przez model (komórki). Prawidłowe rozpoznania wypełniają komórki na przekątnej macierzy. Pozostałe komórki zawierają nieprawidłowe rozpoznania.&lt;/p&gt;
&lt;h2 id="manipulacja"&gt;Manipulacja&lt;/h2&gt;
&lt;p&gt;Proces generowania nowych obrazów z obrazów wejściowych przy użyciu operacji wybranych przez użytkownika (obrót, zmiana rozmiaru, jasności i kontrastu).&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="manipulator"&gt;Manipulator&lt;/h2&gt;
&lt;p&gt;Usługa zintegrowana z portalem OSAI. Manipulator generuje nowe obrazy z obrazów wejściowych przy użyciu zrównoleglonych operacji na wysokowydajnym GPU.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="manipulator-danych"&gt;Manipulator danych&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="magazyn-s3"&gt;Magazyn S3&lt;/h2&gt;
&lt;p&gt;Serwer, który może przechowywać duże ilości danych i udostępniać je klientom na żądanie.&lt;/p&gt;
&lt;h2 id="metryka"&gt;Metryka&lt;/h2&gt;
&lt;p&gt;Funkcja używana do oceny wydajności modelu. Funkcje metryczne są podobne do funkcji strat, z tym wyjątkiem, że wyniki oceny metrycznej nie są wykorzystywane podczas uczenia modelu -
&lt;/p&gt;
&lt;h2 id="model"&gt;Model&lt;/h2&gt;
&lt;p&gt;Oparta na plikach reprezentacja wytrenowanej głębokiej sieci neuronowej, w tym informacje o jej warstwach i wagach.&lt;/p&gt;
&lt;h2 id="mozaika"&gt;Mozaika&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="mozaika-graniczna"&gt;Mozaika graniczna&lt;/h2&gt;
&lt;p&gt;Ogranicza rozmiar obiektów, gdy zaznaczona jest opcja mozaiki (nie pozwala, aby pola ograniczające opuszczały granice swoich obrazów, gdy używana jest funkcja Mosaic-data-augmentation) -
.&lt;/p&gt;
&lt;h2 id="nasycenie"&gt;Nasycenie&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W procesie rozszerzania danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Operacja, która losowo zmienia nasycenie obrazów podczas treningu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
;
&lt;/p&gt;
&lt;h2 id="obrót"&gt;Obrót&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W Manipulatorze zbioru danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Operacja używana do zmiany kąta położenia obrazu. Na podstawie zestawu obrazów wejściowych (lub, jeśli nie jest to pierwsza operacja, już wygenerowanych danych), iteracyjnie tworzy serię nowych obrazów. W każdej iteracji obraz wejściowy jest obracany o wielokrotność kąta określonego w parametrze. Pętla kończy się, gdy obrót osiągnie 360 stopni.&lt;/p&gt;
&lt;p&gt;Na przykład: dla kąta 30 stopni wygenerowanych zostanie 12 nowych obrazów obróconych o kąty 30°, 60°, 90°, 120°, 150°, 180°, 210°, 240°, 270°, 300°, 330° i 360°.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="odcień"&gt;Odcień&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W procesie rozszerzania danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Losowa zmiana odcienia (koloru) podczas treningu -
.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="panel-główny"&gt;Panel główny&lt;/h2&gt;
&lt;p&gt;Główny widok interfejsu użytkownika. Wyświetla informacje o wszystkich ostatnich działaniach w aplikacji, takich jak ostatnio używane zbiory danych, ostatnio trenowane modele lub ostatnio otrzymane powiadomienia.&lt;/p&gt;
&lt;h2 id="pęd"&gt;Pęd&lt;/h2&gt;
&lt;p&gt;Akumulacja ruchu; jak bardzo historia wpływa na dalszą zmianę wag (optymalizator) -
&lt;/p&gt;
&lt;h2 id="podział"&gt;Podział&lt;/h2&gt;
&lt;p&gt;Proces dzielenia zbioru obrazów o rozmiarze określonym przez wielkość pojedynczej partii (64) na mniejsze podzbiory. Odbywa się to w celu optymalizacji wykorzystania zasobów systemowych bez wpływu na wyniki uzyskane podczas uczenia.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="predykcja"&gt;Predykcja&lt;/h2&gt;
&lt;p&gt;Pojedynczy wynik sieci neuronowej, czyli pojedyncza kategoria klasyfikacji dla całego obrazu lub pojedynczego wykrytego obiektu. Jeden obraz może mieć jedną predykcję klasyfikacji i 0 lub więcej predykcji detekcji.&lt;/p&gt;
&lt;h2 id="precyzja"&gt;Precyzja&lt;/h2&gt;
&lt;p&gt;Określa dokładność modelu na podstawie tego, jak dobrze wykryty obiekt pasuje do kategorii lub położenia rzeczywistego obiektu.&lt;/p&gt;
&lt;h2 id="pretrenowany-model"&gt;Pretrenowany model&lt;/h2&gt;
&lt;p&gt;Sieć neuronowa przygotowana w ramach frameworka, z predefiniowaną architekturą warstw i wag. Można go dostosować poprzez parametryzację, modyfikację warstw, a następnie szkolenie na określonych zbiorach danych.&lt;/p&gt;
&lt;h2 id="proces-roboczy"&gt;Proces roboczy&lt;/h2&gt;
&lt;p&gt;Proces roboczy to maszyna, która wykonuje zadania w tle, podczas gdy aplikacja działa i przetwarza inne żądania. Może wykonywać różne zadania, takie jak:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;przygotowywanie i manipulowanie zbiorem danych&lt;/li&gt;
&lt;li&gt;tworzenie, szkolenie i konwertowanie modelu AI,&lt;/li&gt;
&lt;li&gt;wynajmowanie i zwalnianie urządzeń,&lt;/li&gt;
&lt;li&gt;tworzenie predykcji.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Gdy zadania są dodawane do kolejki, proces roboczy pobiera je stamtąd i wykonuje w tle, umożliwiając jednoczesne przetwarzanie zadań AI bez zakłócania doświadczenia użytkownika. Na przykład, trenowanie modeli może być czasochłonne, a korzystanie z procesu roboczeko pozwala na wykonywanie innych zadań, podczas gdy model jest trenowany w tle.&lt;/p&gt;
&lt;p&gt;W naszej aplikacji jest kilka procesów roboczych. Ich liczba w systemie jest skalowalna i może zmieniać się w czasie.&lt;/p&gt;
&lt;h2 id="przeuczenie-overfitting"&gt;Przeuczenie (Overfitting)&lt;/h2&gt;
&lt;p&gt;Przeuczenie to częsty problem w uczeniu maszynowym, w którym model staje się zbyt wyspecjalizowany w rozpoznawaniu wzorców z danych treningowych, przez co słabo radzi sobie z nowymi, nieznanymi danymi. Może to wystąpić, gdy model zbyt mocno dostosowuje się do konkretnych przykładów z zestawu treningowego, co może prowadzić do obniżonej dokładności w rzeczywistych scenariuszach lub dla obiektów i układów, które nie były dobrze reprezentowane podczas treningu. Zapobieganie przeuczeniu jest kluczowe dla zapewnienia niezawodnego działania modelu w zróżnicowanych i dynamicznych warunkach.&lt;/p&gt;
&lt;h2 id="przerzucanie"&gt;Przerzucanie&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W procesie rozszerzania danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Pionowe lub poziome odbicie obrazu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="próg-ucinania"&gt;Próg ucinania&lt;/h2&gt;
&lt;p&gt;Procentowy limit przycinania obiektów z adnotacjami (w obrazach wygenerowanych przez operację obrotu).&lt;/p&gt;
&lt;p&gt;Operacja obrotu może spowodować, że część obiektu z adnotacją znajdzie się poza obrazem, tj. zostanie ucięta. Próg ucinania określa, jaka część obiektu musi być widoczna na wynikowym obrazie, aby adnotacja miała sens. Adnotacje obiektów o mniejszej widoczności niż wskazana wartość procentowa zostaną usunięte.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="publikacja"&gt;Publikacja&lt;/h2&gt;
&lt;p&gt;Proces udostępniania zbiorów danych do zakupu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="rozmycie-gaussowskie"&gt;Rozmycie Gaussowskie&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W procesie rozszerzania danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Losowe dodawanie rozmycia Gaussowskiego do przetwarzanych obrazów.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="rozszerzanie-danych"&gt;Rozszerzanie danych&lt;/h2&gt;
&lt;p&gt;Operacje stosowane w celu rozszerzenia ilości danych poprzez dodanie nieznacznie zmodyfikowanych kopii już istniejących danych lub nowo utworzonych danych syntetycznych z istniejących danych. Działa jako regularyzator i pomaga zmniejszyć nadmierne dopasowanie podczas uczenia modelu uczenia maszynowego.&lt;/p&gt;
&lt;h2 id="rynek"&gt;Rynek&lt;/h2&gt;
&lt;p&gt;Na rynku użytkownicy mogą sprzedawać własne zestawy danych lub kupować je od innych użytkowników.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;em&gt;i&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="spadek"&gt;Spadek&lt;/h2&gt;
&lt;p&gt;Słabsza aktualizacja wag dla typowych cech. Eliminuje nierównowagę w zbiorze danych (optymalizator) -
&lt;/p&gt;
&lt;h2 id="sprzęt"&gt;Sprzęt&lt;/h2&gt;
&lt;p&gt;Kluczowe komponenty (np. GPU, CPU) urządzeń, na których działają modele sieci neuronowych.&lt;/p&gt;
&lt;h2 id="strata"&gt;Strata&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="strata-modelu"&gt;Strata modelu&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="szablon"&gt;Szablon&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="szablon-modelu"&gt;Szablon modelu&lt;/h2&gt;
&lt;p&gt;Szablon (ustawienie wstępne) przechowujący wartości parametrów uczenia sieci neuronowej. Użytkownik może użyć szablonu do skonfigurowania treningu.&lt;/p&gt;
&lt;h2 id="szum"&gt;Szum&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;W procesie rozszerzania danych:&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Operacja losowego przycinania i zmiany rozmiaru obrazów, ze zmieniającym się współczynnikiem proporcji od $x(1 - 2 \cdot szum) \rightarrow x(1 + 2 \cdot szum)$ (parametr rozszerzania danych jest używany tylko od ostatniej warstwy) -
&lt;/p&gt;
&lt;h2 id="tempo-zmiany-wag"&gt;Tempo zmiany wag&lt;/h2&gt;
&lt;p&gt;Hiperparametr, który kontroluje, jak bardzo dostosowujemy wagi naszej sieci w odniesieniu do gradientu strat. Im niższa wartość, tym wolniej poruszamy się wzdłuż nachylenia w dół -
&lt;/p&gt;
&lt;h2 id="trening"&gt;Trening&lt;/h2&gt;
&lt;p&gt;Proces trenowania sieci neuronowej, który w kolejnych iteracjach/epokach i przy użyciu określonych parametrów ma na celu stopniową poprawę dokładności/precyzji sieci i zmniejszenie wartości funkcji straty.&lt;/p&gt;
&lt;p&gt;Wytrenowany model jest następnie zapisywany w magazynie S3.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
;
;
&lt;/p&gt;
&lt;h2 id="udostępnianie"&gt;Udostępnianie&lt;/h2&gt;
&lt;p&gt;Praktyka polegająca na udostępnianiu zbioru danych innym osobom w celu uzyskania dostępu, analizy i/lub wykorzystania.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="urządzenie"&gt;Urządzenie&lt;/h2&gt;
&lt;p&gt;Urządzenie brzegowe; urządzenie końcowe, na którym możemy uruchamiać wytrenowane i/lub przekonwertowane modele sieci neuronowych. Uruchomienie modelu na urządzeniu nazywane jest wdrożeniem.&lt;/p&gt;
&lt;h2 id="urządzenie-brzegowe"&gt;Urządzenie brzegowe&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;Przejdź do:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="walidacja"&gt;Walidacja&lt;/h2&gt;
&lt;p&gt;Proces wbudowany w trening modelu, który oblicza dokładność modelu na podzbiorze walidacyjnym.&lt;/p&gt;
&lt;h2 id="wielkość-partii"&gt;Wielkość partii&lt;/h2&gt;
&lt;p&gt;Liczba obrazów przetwarzanych jednocześnie przez CPU lub GPU w danym momencie procesu trenowania.&lt;/p&gt;
&lt;h2 id="wczesne-zatrzymanie"&gt;Wczesne zatrzymanie&lt;/h2&gt;
&lt;p&gt;Oznacza to, że model może zakończyć szkolenie wcześniej, jeśli wartość strat nie zmniejszy się w określonej liczbie epok.&lt;/p&gt;
&lt;h2 id="zbiór-danych"&gt;Zbiór danych&lt;/h2&gt;
&lt;p&gt;Zbiór danych reprezentujących klasy obiektów, które mają być rozpoznawane przez wytrenowany model sieci neuronowej. Składa się z obrazów i (ewentualnie) dodanych do nich adnotacji.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;
&lt;h2 id="zmienność-jasności"&gt;Zmienność jasności&lt;/h2&gt;
&lt;p&gt;Zakres zmian jasności dla nowo generowanych obrazów, w skali od 0 do 255.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
;
&lt;/p&gt;
&lt;h2 id="zmiana-rozmiaru"&gt;Zmiana rozmiaru&lt;/h2&gt;
&lt;p&gt;W Manipulatorze zbioru danych:&lt;/p&gt;
&lt;p&gt;Operacja używana do zmiany wymiarów obrazu. Modyfikacja jest wykonywana na wszystkich obrazach wejściowych (lub, jeśli nie jest to pierwsza operacja, na wszystkich, które zostały już wygenerowane). Rozmiar obrazu wyjściowego może być generowany w rozdzielczościach od 8x8 do 4096x3112 px. Możliwa jest również zmiana proporcji obrazu.&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Zobacz także:&lt;/em&gt;
&lt;/p&gt;</description></item><item><title>Korzystanie z formularza pomocy</title><link>/pl/docs/help/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>/pl/docs/help/</guid><description>&lt;p&gt;Aby uzyskać wizualny przewodnik, zapoznaj się z samouczkiem na naszym kanale Youtube:&lt;/p&gt;
&lt;div style="position: relative; padding-bottom: 56.25%; height: 0; overflow: hidden;"&gt;
&lt;iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share; fullscreen" loading="eager" referrerpolicy="strict-origin-when-cross-origin" src="https://www.youtube.com/embed/DZB0w1ZgBBE?autoplay=0&amp;amp;controls=1&amp;amp;end=0&amp;amp;loop=0&amp;amp;mute=0&amp;amp;start=0" style="position: absolute; top: 0; left: 0; width: 100%; height: 100%; border:0;" title="YouTube video"&gt;&lt;/iframe&gt;
&lt;/div&gt;
&lt;p&gt;Możesz skontaktować się z nami za pomocą formularza pomocy. W menu rodzaju problemu wybierz temat z jednego z poniższych:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Przesyłanie plików&lt;/li&gt;
&lt;li&gt;Edytor obrazów&lt;/li&gt;
&lt;li&gt;Manipulator danych&lt;/li&gt;
&lt;li&gt;Testowanie&lt;/li&gt;
&lt;li&gt;Trening&lt;/li&gt;
&lt;li&gt;Szablony&lt;/li&gt;
&lt;li&gt;Rachunki&lt;/li&gt;
&lt;li&gt;Inne&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;
&lt;figure &gt;
&lt;div class="flex justify-center "&gt;
&lt;div class="w-100" &gt;&lt;img alt="" srcset="
/media/pl/pomoc/pomoc_hu_1f2b5a3b35401936.webp 400w,
/media/pl/pomoc/pomoc_hu_4f6ba8d20611cb0b.webp 760w,
/media/pl/pomoc/pomoc_hu_d8d088396ea567d2.webp 1200w"
src="/media/pl/pomoc/pomoc_hu_1f2b5a3b35401936.webp"
width="760"
height="326"
loading="lazy" data-zoomable /&gt;&lt;/div&gt;
&lt;/div&gt;&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;W polu opisu wprowadź opis swojego problemu lub pytania. Wiadomość może zawierać maksymalnie 600 znaków.&lt;/p&gt;
&lt;p&gt;Jeśli potrzebujesz więcej miejsca, możesz załączyć plik, dostępne rozszerzenia to: txt, png, jpg, jpeg. Nasza skrzynka pocztowa akceptuje załączniki do 10 MB.&lt;/p&gt;</description></item></channel></rss>