|
@@ -64,7 +64,7 @@
|
|
"Allow Voice Interruption in Call": "Zezwól na przerwanie połączenia głosowego",
|
|
"Allow Voice Interruption in Call": "Zezwól na przerwanie połączenia głosowego",
|
|
"Allowed Endpoints": "Dozwolone punkty końcowe",
|
|
"Allowed Endpoints": "Dozwolone punkty końcowe",
|
|
"Already have an account?": "Czy masz już konto?",
|
|
"Already have an account?": "Czy masz już konto?",
|
|
- "Alternative to the top_p, and aims to ensure a balance of quality and variety. The parameter p represents the minimum probability for a token to be considered, relative to the probability of the most likely token. For example, with p=0.05 and the most likely token having a probability of 0.9, logits with a value less than 0.045 are filtered out. (Default: 0.0)": "Alternatywa dla top_p, mająca na celu zapewnienie równowagi między jakością a różnorodnością. Parametr p reprezentuje minimalne prawdopodobieństwo, aby token był brany pod uwagę, względem prawdopodobieństwa najbardziej prawdopodobnego tokena. Na przykład, dla p=0,05 i najbardziej prawdopodobnym tokenem o prawdopodobieństwie 0,9, logity o wartości mniejszej niż 0,045 są wykluczane. (Domyślnie: 0,0)",
|
|
|
|
|
|
+ "Alternative to the top_p, and aims to ensure a balance of quality and variety. The parameter p represents the minimum probability for a token to be considered, relative to the probability of the most likely token. For example, with p=0.05 and the most likely token having a probability of 0.9, logits with a value less than 0.045 are filtered out.": "",
|
|
"Always": "Zawsze",
|
|
"Always": "Zawsze",
|
|
"Amazing": "Niesamowite",
|
|
"Amazing": "Niesamowite",
|
|
"an assistant": "asystent",
|
|
"an assistant": "asystent",
|
|
@@ -208,7 +208,7 @@
|
|
"Confirm your new password": "Potwierdź nowe hasło",
|
|
"Confirm your new password": "Potwierdź nowe hasło",
|
|
"Connect to your own OpenAI compatible API endpoints.": "Połącz się ze swoimi własnymi punktami końcowymi API kompatybilnego z OpenAI.",
|
|
"Connect to your own OpenAI compatible API endpoints.": "Połącz się ze swoimi własnymi punktami końcowymi API kompatybilnego z OpenAI.",
|
|
"Connections": "Połączenia",
|
|
"Connections": "Połączenia",
|
|
- "Constrains effort on reasoning for reasoning models. Only applicable to reasoning models from specific providers that support reasoning effort. (Default: medium)": "Ogranicza wysiłek rozumowania dla modeli rozumowania. Stosuje się tylko do modeli rozumowania od określonych dostawców, którzy obsługują wysiłek rozumowania. (Domyślnie: średni)",
|
|
|
|
|
|
+ "Constrains effort on reasoning for reasoning models. Only applicable to reasoning models from specific providers that support reasoning effort.": "",
|
|
"Contact Admin for WebUI Access": "Skontaktuj się z administratorem, aby uzyskać dostęp do WebUI.",
|
|
"Contact Admin for WebUI Access": "Skontaktuj się z administratorem, aby uzyskać dostęp do WebUI.",
|
|
"Content": "Treść",
|
|
"Content": "Treść",
|
|
"Content Extraction Engine": "",
|
|
"Content Extraction Engine": "",
|
|
@@ -218,9 +218,9 @@
|
|
"Continue with Email": "Kontynuuj z e-mailem",
|
|
"Continue with Email": "Kontynuuj z e-mailem",
|
|
"Continue with LDAP": "Kontynuuj z LDAP",
|
|
"Continue with LDAP": "Kontynuuj z LDAP",
|
|
"Control how message text is split for TTS requests. 'Punctuation' splits into sentences, 'paragraphs' splits into paragraphs, and 'none' keeps the message as a single string.": "Kontroluj sposób dzielenia tekstu wiadomości dla żądań TTS. 'Punctuation' dzieli na zdania, 'paragraphs' dzieli na akapity, a 'none' pozostawia wiadomość jako pojedynczy ciąg znaków.",
|
|
"Control how message text is split for TTS requests. 'Punctuation' splits into sentences, 'paragraphs' splits into paragraphs, and 'none' keeps the message as a single string.": "Kontroluj sposób dzielenia tekstu wiadomości dla żądań TTS. 'Punctuation' dzieli na zdania, 'paragraphs' dzieli na akapity, a 'none' pozostawia wiadomość jako pojedynczy ciąg znaków.",
|
|
- "Control the repetition of token sequences in the generated text. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 1.1) will be more lenient. At 1, it is disabled. (Default: 1.1)": "Kontroluj powtarzanie się sekwencji tokenów w wygenerowanym tekście. Wyższa wartość (np. 1,5) będzie silniej penalizować powtórzenia, podczas gdy niższa wartość (np. 1,1) będzie bardziej pobłażliwa. Na poziomie 1 jest wyłączona. (Domyślnie: 1,1)",
|
|
|
|
|
|
+ "Control the repetition of token sequences in the generated text. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 1.1) will be more lenient. At 1, it is disabled.": "",
|
|
"Controls": "Ustawienia",
|
|
"Controls": "Ustawienia",
|
|
- "Controls the balance between coherence and diversity of the output. A lower value will result in more focused and coherent text. (Default: 5.0)": "Kontroluje równowagę między spójnością a zróżnicowaniem wyników. Niższa wartość zaowocuje bardziej skoncentrowanym i spójnym tekstem. (Domyślnie: 5,0)",
|
|
|
|
|
|
+ "Controls the balance between coherence and diversity of the output. A lower value will result in more focused and coherent text.": "",
|
|
"Copied": "Skopiowane",
|
|
"Copied": "Skopiowane",
|
|
"Copied shared chat URL to clipboard!": "Skopiowano udostępniony URL czatu do schowka!",
|
|
"Copied shared chat URL to clipboard!": "Skopiowano udostępniony URL czatu do schowka!",
|
|
"Copied to clipboard": "Skopiowane do schowka",
|
|
"Copied to clipboard": "Skopiowane do schowka",
|
|
@@ -358,7 +358,7 @@
|
|
"Enable Memory Locking (mlock) to prevent model data from being swapped out of RAM. This option locks the model's working set of pages into RAM, ensuring that they will not be swapped out to disk. This can help maintain performance by avoiding page faults and ensuring fast data access.": "Włącz blokowanie pamięci (mlock), aby zapobiec swappingowi danych modelu z RAM. Ta opcja blokuje zbiór stron roboczych modelu w RAM, co gwarantuje, że nie będą one wymieniane na dysk. Może to pomóc w utrzymaniu wydajności poprzez unikanie błędów strony i zapewnienie szybkiego dostępu do danych.",
|
|
"Enable Memory Locking (mlock) to prevent model data from being swapped out of RAM. This option locks the model's working set of pages into RAM, ensuring that they will not be swapped out to disk. This can help maintain performance by avoiding page faults and ensuring fast data access.": "Włącz blokowanie pamięci (mlock), aby zapobiec swappingowi danych modelu z RAM. Ta opcja blokuje zbiór stron roboczych modelu w RAM, co gwarantuje, że nie będą one wymieniane na dysk. Może to pomóc w utrzymaniu wydajności poprzez unikanie błędów strony i zapewnienie szybkiego dostępu do danych.",
|
|
"Enable Memory Mapping (mmap) to load model data. This option allows the system to use disk storage as an extension of RAM by treating disk files as if they were in RAM. This can improve model performance by allowing for faster data access. However, it may not work correctly with all systems and can consume a significant amount of disk space.": "Włącz mapowanie pamięci (mmap), aby załadować dane modelu. Ta opcja pozwala systemowi traktować pliki dysku jako rozszerzenie RAM, co może poprawić wydajność modelu przez umożliwienie szybszego dostępu do danych. Należy jednak pamiętać, że ta funkcja może nie działać poprawnie ze wszystkimi systemami i zużywać znaczną ilość przestrzeni dyskowej.",
|
|
"Enable Memory Mapping (mmap) to load model data. This option allows the system to use disk storage as an extension of RAM by treating disk files as if they were in RAM. This can improve model performance by allowing for faster data access. However, it may not work correctly with all systems and can consume a significant amount of disk space.": "Włącz mapowanie pamięci (mmap), aby załadować dane modelu. Ta opcja pozwala systemowi traktować pliki dysku jako rozszerzenie RAM, co może poprawić wydajność modelu przez umożliwienie szybszego dostępu do danych. Należy jednak pamiętać, że ta funkcja może nie działać poprawnie ze wszystkimi systemami i zużywać znaczną ilość przestrzeni dyskowej.",
|
|
"Enable Message Rating": "Włącz ocenianie wiadomości",
|
|
"Enable Message Rating": "Włącz ocenianie wiadomości",
|
|
- "Enable Mirostat sampling for controlling perplexity. (Default: 0, 0 = Disabled, 1 = Mirostat, 2 = Mirostat 2.0)": "Włącz próbkowanie Mirostat w celu kontrolowania perplexity. (Domyślnie: 0, 0 = Wyłączone, 1 = Mirostat, 2 = Mirostat 2.0)",
|
|
|
|
|
|
+ "Enable Mirostat sampling for controlling perplexity.": "",
|
|
"Enable New Sign Ups": "Włącz nowe rejestracje",
|
|
"Enable New Sign Ups": "Włącz nowe rejestracje",
|
|
"Enabled": "Włączone",
|
|
"Enabled": "Włączone",
|
|
"Ensure your CSV file includes 4 columns in this order: Name, Email, Password, Role.": "Upewnij się, że twój plik CSV zawiera dokładnie 4 kolumny w następującej kolejności: Nazwa, Email, Hasło, Rola.",
|
|
"Ensure your CSV file includes 4 columns in this order: Name, Email, Password, Role.": "Upewnij się, że twój plik CSV zawiera dokładnie 4 kolumny w następującej kolejności: Nazwa, Email, Hasło, Rola.",
|
|
@@ -566,7 +566,7 @@
|
|
"Include": "Włączyć",
|
|
"Include": "Włączyć",
|
|
"Include `--api-auth` flag when running stable-diffusion-webui": "Użyj flagi `--api-auth` podczas uruchamiania stable-diffusion-webui",
|
|
"Include `--api-auth` flag when running stable-diffusion-webui": "Użyj flagi `--api-auth` podczas uruchamiania stable-diffusion-webui",
|
|
"Include `--api` flag when running stable-diffusion-webui": "Użyj flagi `--api` podczas uruchamiania stable-diffusion-webui.",
|
|
"Include `--api` flag when running stable-diffusion-webui": "Użyj flagi `--api` podczas uruchamiania stable-diffusion-webui.",
|
|
- "Influences how quickly the algorithm responds to feedback from the generated text. A lower learning rate will result in slower adjustments, while a higher learning rate will make the algorithm more responsive. (Default: 0.1)": "Wpływa na to, jak szybko algorytm reaguje na informacje zwrotne z wygenerowanego tekstu. Niższa stopa uczenia się spowoduje wolniejsze dostosowania, podczas gdy wyższa stopa uczenia się sprawi, że algorytm będzie bardziej reaktywny. (Domyślna: 0.1)",
|
|
|
|
|
|
+ "Influences how quickly the algorithm responds to feedback from the generated text. A lower learning rate will result in slower adjustments, while a higher learning rate will make the algorithm more responsive.": "",
|
|
"Info": "Informacje",
|
|
"Info": "Informacje",
|
|
"Input commands": "Wprowadź polecenia",
|
|
"Input commands": "Wprowadź polecenia",
|
|
"Install from Github URL": "Instalacja z adresu URL serwisu Github",
|
|
"Install from Github URL": "Instalacja z adresu URL serwisu Github",
|
|
@@ -809,7 +809,7 @@
|
|
"Reasoning Effort": "Wysiłek rozumowania",
|
|
"Reasoning Effort": "Wysiłek rozumowania",
|
|
"Record voice": "Nagraj swój głos",
|
|
"Record voice": "Nagraj swój głos",
|
|
"Redirecting you to Open WebUI Community": "Przekierowujemy Cię do społeczności Open WebUI",
|
|
"Redirecting you to Open WebUI Community": "Przekierowujemy Cię do społeczności Open WebUI",
|
|
- "Reduces the probability of generating nonsense. A higher value (e.g. 100) will give more diverse answers, while a lower value (e.g. 10) will be more conservative. (Default: 40)": "Zmniejsza prawdopodobieństwo generowania bezsensownych odpowiedzi. Wyższa wartość (np. 100) daje bardziej zróżnicowane odpowiedzi, podczas gdy niższa wartość (np. 10) jest bardziej konserwatywna. (Domyślnie: 40)",
|
|
|
|
|
|
+ "Reduces the probability of generating nonsense. A higher value (e.g. 100) will give more diverse answers, while a lower value (e.g. 10) will be more conservative.": "",
|
|
"Refer to yourself as \"User\" (e.g., \"User is learning Spanish\")": "Odnosić się do siebie jako \"Użytkownik\" (np. \"Użytkownik uczy się hiszpańskiego\")",
|
|
"Refer to yourself as \"User\" (e.g., \"User is learning Spanish\")": "Odnosić się do siebie jako \"Użytkownik\" (np. \"Użytkownik uczy się hiszpańskiego\")",
|
|
"References from": "Odniesienia do",
|
|
"References from": "Odniesienia do",
|
|
"Refused when it shouldn't have": "Odmówił, gdy nie powinien",
|
|
"Refused when it shouldn't have": "Odmówił, gdy nie powinien",
|
|
@@ -918,11 +918,11 @@
|
|
"Set the number of worker threads used for computation. This option controls how many threads are used to process incoming requests concurrently. Increasing this value can improve performance under high concurrency workloads but may also consume more CPU resources.": "Ustaw liczbę wątków pracowników używanych do obliczeń. Ta opcja kontroluje, ile wątków jest używanych do jednoczesnego przetwarzania przychodzących żądań. Zwiększenie tej wartości może poprawić wydajność pod wysokim obciążeniem, ale może również zużywać więcej zasobów CPU.",
|
|
"Set the number of worker threads used for computation. This option controls how many threads are used to process incoming requests concurrently. Increasing this value can improve performance under high concurrency workloads but may also consume more CPU resources.": "Ustaw liczbę wątków pracowników używanych do obliczeń. Ta opcja kontroluje, ile wątków jest używanych do jednoczesnego przetwarzania przychodzących żądań. Zwiększenie tej wartości może poprawić wydajność pod wysokim obciążeniem, ale może również zużywać więcej zasobów CPU.",
|
|
"Set Voice": "Ustaw głos",
|
|
"Set Voice": "Ustaw głos",
|
|
"Set whisper model": "Ustaw model szeptu",
|
|
"Set whisper model": "Ustaw model szeptu",
|
|
- "Sets a flat bias against tokens that have appeared at least once. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled. (Default: 0)": "Ustawia płaską karę za tokeny, które pojawiły się przynajmniej raz. Wyższa wartość (np. 1,5) bardziej surowo karze powtórzenia, podczas gdy niższa wartość (np. 0,9) jest bardziej pobłażliwa. Przy 0 jest wyłączona. (Domyślnie: 0)",
|
|
|
|
- "Sets a scaling bias against tokens to penalize repetitions, based on how many times they have appeared. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled. (Default: 1.1)": "Ustawia skalowanie przeciwko tokenom, aby penalizować powtórzenia na podstawie liczby ich wystąpień. Wyższa wartość (np. 1,5) bardziej penalizuje powtórzenia, natomiast niższa wartość (np. 0,9) jest bardziej pobłażliwa. Przy 0 jest wyłączona. (Domyślnie: 1,1)",
|
|
|
|
- "Sets how far back for the model to look back to prevent repetition. (Default: 64, 0 = disabled, -1 = num_ctx)": "Określa, jak daleko wstecz model powinien sięgać, aby zapobiec powtarzaniu się. (Domyślnie: 64, 0 = wyłączone, -1 = num_ctx)",
|
|
|
|
- "Sets the random number seed to use for generation. Setting this to a specific number will make the model generate the same text for the same prompt. (Default: random)": "Ustawia ziarno liczby losowej do użycia podczas generowania. Ustawienie tego na konkretną liczbę spowoduje, że model będzie generował ten sam tekst dla tego samego zapytania. (Domyślnie: losowe)",
|
|
|
|
- "Sets the size of the context window used to generate the next token. (Default: 2048)": "Ustawia rozmiar okna kontekstowego używanego do generowania następnego tokenu. (Domyślnie: 2048)",
|
|
|
|
|
|
+ "Sets a flat bias against tokens that have appeared at least once. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled.": "",
|
|
|
|
+ "Sets a scaling bias against tokens to penalize repetitions, based on how many times they have appeared. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled.": "",
|
|
|
|
+ "Sets how far back for the model to look back to prevent repetition.": "",
|
|
|
|
+ "Sets the random number seed to use for generation. Setting this to a specific number will make the model generate the same text for the same prompt.": "",
|
|
|
|
+ "Sets the size of the context window used to generate the next token.": "",
|
|
"Sets the stop sequences to use. When this pattern is encountered, the LLM will stop generating text and return. Multiple stop patterns may be set by specifying multiple separate stop parameters in a modelfile.": "Ustawia sekwencje stopu do użycia. Gdy ten wzorzec zostanie napotkany, LLM przestanie generować tekst i zwróci wynik. Można skonfigurować wiele sekwencji stopu, określając kilka oddzielnych parametrów stopu w pliku modelu.",
|
|
"Sets the stop sequences to use. When this pattern is encountered, the LLM will stop generating text and return. Multiple stop patterns may be set by specifying multiple separate stop parameters in a modelfile.": "Ustawia sekwencje stopu do użycia. Gdy ten wzorzec zostanie napotkany, LLM przestanie generować tekst i zwróci wynik. Można skonfigurować wiele sekwencji stopu, określając kilka oddzielnych parametrów stopu w pliku modelu.",
|
|
"Settings": "Ustawienia",
|
|
"Settings": "Ustawienia",
|
|
"Settings saved successfully!": "Ustawienia zostały zapisane pomyślnie!",
|
|
"Settings saved successfully!": "Ustawienia zostały zapisane pomyślnie!",
|
|
@@ -964,7 +964,7 @@
|
|
"System Prompt": "Podpowiedź systemowa",
|
|
"System Prompt": "Podpowiedź systemowa",
|
|
"Tags Generation": "Generowanie tagów",
|
|
"Tags Generation": "Generowanie tagów",
|
|
"Tags Generation Prompt": "Podpowiedź do generowania tagów",
|
|
"Tags Generation Prompt": "Podpowiedź do generowania tagów",
|
|
- "Tail free sampling is used to reduce the impact of less probable tokens from the output. A higher value (e.g., 2.0) will reduce the impact more, while a value of 1.0 disables this setting. (default: 1)": "Próbkowanie bez ogona jest używane do zmniejszenia wpływu mniej prawdopodobnych tokenów na wyjście. Wyższa wartość (np. 2,0) zmniejszy ten wpływ bardziej, podczas gdy wartość 1,0 wyłącza to ustawienie. (domyślnie: 1)",
|
|
|
|
|
|
+ "Tail free sampling is used to reduce the impact of less probable tokens from the output. A higher value (e.g., 2.0) will reduce the impact more, while a value of 1.0 disables this setting.": "",
|
|
"Talk to model": "",
|
|
"Talk to model": "",
|
|
"Tap to interrupt": "Kliknij, aby przerwać",
|
|
"Tap to interrupt": "Kliknij, aby przerwać",
|
|
"Tasks": "Zadania",
|
|
"Tasks": "Zadania",
|
|
@@ -979,7 +979,7 @@
|
|
"Thanks for your feedback!": "Dziękuję za twoją opinię!",
|
|
"Thanks for your feedback!": "Dziękuję za twoją opinię!",
|
|
"The Application Account DN you bind with for search": "Konto techniczne w formacie DN, z którym się wiążesz w celu przeszukiwania",
|
|
"The Application Account DN you bind with for search": "Konto techniczne w formacie DN, z którym się wiążesz w celu przeszukiwania",
|
|
"The base to search for users": "Podstawa do wyszukiwania użytkowników",
|
|
"The base to search for users": "Podstawa do wyszukiwania użytkowników",
|
|
- "The batch size determines how many text requests are processed together at once. A higher batch size can increase the performance and speed of the model, but it also requires more memory. (Default: 512)": "Rozmiar partii określa, ile żądań tekstu jest przetwarzanych razem w jednym czasie. Większy rozmiar partii może zwiększyć wydajność i szybkość modelu, ale wymaga również więcej pamięci. (Domyślnie: 512)",
|
|
|
|
|
|
+ "The batch size determines how many text requests are processed together at once. A higher batch size can increase the performance and speed of the model, but it also requires more memory.": "",
|
|
"The developers behind this plugin are passionate volunteers from the community. If you find this plugin helpful, please consider contributing to its development.": "Twórcy tego wtyczki to entuzjaści, którzy działają jako wolontariusze ze społeczności. Jeśli uważasz, że ta wtyczka jest pomocna, rozważ wsparcie jej rozwoju.",
|
|
"The developers behind this plugin are passionate volunteers from the community. If you find this plugin helpful, please consider contributing to its development.": "Twórcy tego wtyczki to entuzjaści, którzy działają jako wolontariusze ze społeczności. Jeśli uważasz, że ta wtyczka jest pomocna, rozważ wsparcie jej rozwoju.",
|
|
"The evaluation leaderboard is based on the Elo rating system and is updated in real-time.": "Tablica wyników oceny opiera się na systemie rankingu Elo i jest aktualizowana w czasie rzeczywistym.",
|
|
"The evaluation leaderboard is based on the Elo rating system and is updated in real-time.": "Tablica wyników oceny opiera się na systemie rankingu Elo i jest aktualizowana w czasie rzeczywistym.",
|
|
"The LDAP attribute that maps to the mail that users use to sign in.": "Atrybut LDAP, który mapuje się na adres e-mail używany przez użytkowników do logowania.",
|
|
"The LDAP attribute that maps to the mail that users use to sign in.": "Atrybut LDAP, który mapuje się na adres e-mail używany przez użytkowników do logowania.",
|
|
@@ -988,14 +988,14 @@
|
|
"The maximum file size in MB. If the file size exceeds this limit, the file will not be uploaded.": "Maksymalny rozmiar pliku w MB. Jeśli rozmiar pliku przekroczy ten limit, plik nie zostanie przesłany.",
|
|
"The maximum file size in MB. If the file size exceeds this limit, the file will not be uploaded.": "Maksymalny rozmiar pliku w MB. Jeśli rozmiar pliku przekroczy ten limit, plik nie zostanie przesłany.",
|
|
"The maximum number of files that can be used at once in chat. If the number of files exceeds this limit, the files will not be uploaded.": "Maksymalna liczba plików, które można użyć jednocześnie w czacie. Jeśli liczba plików przekroczy ten limit, pliki nie zostaną przesłane.",
|
|
"The maximum number of files that can be used at once in chat. If the number of files exceeds this limit, the files will not be uploaded.": "Maksymalna liczba plików, które można użyć jednocześnie w czacie. Jeśli liczba plików przekroczy ten limit, pliki nie zostaną przesłane.",
|
|
"The score should be a value between 0.0 (0%) and 1.0 (100%).": "Wynik powinien być wartością pomiędzy 0,0 (0%) a 1,0 (100%).",
|
|
"The score should be a value between 0.0 (0%) and 1.0 (100%).": "Wynik powinien być wartością pomiędzy 0,0 (0%) a 1,0 (100%).",
|
|
- "The temperature of the model. Increasing the temperature will make the model answer more creatively. (Default: 0.8)": "Temperatura modelu. Zwiększenie temperatury sprawi, że model będzie odpowiadał w sposób bardziej kreatywny. (Domyślnie: 0.8)",
|
|
|
|
|
|
+ "The temperature of the model. Increasing the temperature will make the model answer more creatively.": "",
|
|
"Theme": "Motyw",
|
|
"Theme": "Motyw",
|
|
"Thinking...": "Myślę...",
|
|
"Thinking...": "Myślę...",
|
|
"This action cannot be undone. Do you wish to continue?": "Czy na pewno chcesz kontynuować? Ta akcja nie może zostać cofnięta.",
|
|
"This action cannot be undone. Do you wish to continue?": "Czy na pewno chcesz kontynuować? Ta akcja nie może zostać cofnięta.",
|
|
"This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "To gwarantuje, że Twoje wartościowe rozmowy są bezpiecznie zapisywane w bazie danych backendowej. Dziękujemy!",
|
|
"This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "To gwarantuje, że Twoje wartościowe rozmowy są bezpiecznie zapisywane w bazie danych backendowej. Dziękujemy!",
|
|
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "To jest funkcja eksperymentalna, może nie działać zgodnie z oczekiwaniami i jest podatna na zmiany w dowolnym momencie.",
|
|
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "To jest funkcja eksperymentalna, może nie działać zgodnie z oczekiwaniami i jest podatna na zmiany w dowolnym momencie.",
|
|
- "This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics. (Default: 24)": "Ta opcja kontroluje, ile tokenów jest zachowanych podczas odświeżania kontekstu. Na przykład, jeśli ustawiona na 2, ostatnie 2 tokeny kontekstu rozmowy zostaną zachowane. Zachowywanie kontekstu może pomóc w utrzymaniu ciągłości rozmowy, ale może zmniejszyć zdolność do odpowiadania na nowe tematy. (Domyślnie: 24)",
|
|
|
|
- "This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated. (Default: 128)": "Ta opcja ustawia maksymalną liczbę tokenów, które model może wygenerować w swojej odpowiedzi. Zwiększenie tego limitu pozwala modelowi na dostarczanie dłuższych odpowiedzi, ale może również zwiększyć prawdopodobieństwo generowania nieprzydatnych lub nieistotnych treści. (Domyślnie: 128)",
|
|
|
|
|
|
+ "This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics.": "",
|
|
|
|
+ "This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "",
|
|
"This option will delete all existing files in the collection and replace them with newly uploaded files.": "Ta opcja usunie wszystkie istniejące pliki w kolekcji i zastąpi je nowo przesłanymi plikami.",
|
|
"This option will delete all existing files in the collection and replace them with newly uploaded files.": "Ta opcja usunie wszystkie istniejące pliki w kolekcji i zastąpi je nowo przesłanymi plikami.",
|
|
"This response was generated by \"{{model}}\"": "Ta odpowiedź została wygenerowana przez \"{{model}}\".",
|
|
"This response was generated by \"{{model}}\"": "Ta odpowiedź została wygenerowana przez \"{{model}}\".",
|
|
"This will delete": "To usunie wszystkie pliki z katalogu.",
|
|
"This will delete": "To usunie wszystkie pliki z katalogu.",
|
|
@@ -1132,7 +1132,7 @@
|
|
"Why?": "Dlaczego?",
|
|
"Why?": "Dlaczego?",
|
|
"Widescreen Mode": "Tryb panoramiczny",
|
|
"Widescreen Mode": "Tryb panoramiczny",
|
|
"Won": "Wygrał",
|
|
"Won": "Wygrał",
|
|
- "Works together with top-k. A higher value (e.g., 0.95) will lead to more diverse text, while a lower value (e.g., 0.5) will generate more focused and conservative text. (Default: 0.9)": "Działa razem z top-k. Wyższa wartość (np. 0,95) prowadzi do bardziej zróżnicowanego tekstu, podczas gdy niższa wartość (np. 0,5) generuje bardziej skoncentrowany i konserwatywny tekst. (Domyślnie: 0,9)",
|
|
|
|
|
|
+ "Works together with top-k. A higher value (e.g., 0.95) will lead to more diverse text, while a lower value (e.g., 0.5) will generate more focused and conservative text.": "",
|
|
"Workspace": "Obszar roboczy",
|
|
"Workspace": "Obszar roboczy",
|
|
"Workspace Permissions": "Uprawnienia do przestrzeni roboczej",
|
|
"Workspace Permissions": "Uprawnienia do przestrzeni roboczej",
|
|
"Write": "Napisz",
|
|
"Write": "Napisz",
|