Skocz do zawartości

Lechu

  • Postów

    7509
  • Dołączył

  • Dostępny

  • Wygrane

    114
  • Donacje

    0.00 PLN 
  • Diamenty

    869 [ Podaruj ]

Posty opublikowane przez Lechu

  1. @ZSGKelnerNa prawdę nie chce Ci się kliknąć dwuklikiem instalatora, poczekać i wpisać kilka słów? Bardziej streścić a tym samym uprościć poradnika nie umiem, potraktuj to jako motywacje 🙂

     

    @wiotqŚrednio, trochę simlish, to i tak jedna z lepszych prób

    image.png

     

    Ten sam prosty prompt:

    image.pngimage.png

     

    Z popularnymi frazami sobie w miarę radzi ale wpisałem ,,wiotq'' to jest totalny simlish

    image.pngimage.png

  2. 1.      Wstęp

    2.      Z czym to się je?

    3.      Wymagania

    4.      Instalacja

    5.      Podstawowe użytkowanie

       5.1      Generowanie obrazu
       5.2      Modyfikacja obrazu
       5.3      Zachowywanie pierwotnego obrazu, zmiana stylu.
       5.4      Wpływ parametrów CFG oraz Denoise na wygenerowany obraz.
       5.5      Korzystanie z modyfikatorów LoRA

    6.      Pozostałe

     

    Wstęp

    CSHacked.pl SWAT TEAM

    (cshacked.pl SWAT TEAM)

     

    Witajcie, dzisiaj przedstawię proces instalacji oraz konfiguracji StableDiffusion.

    Poradnik na dzień dzisiejszy będzie opiewał jedynie w podstawowe zagadnienia wymagane do uruchomienia najbardziej ,,surowej’’ wersji SD. Być może w przyszłości pojawi się więcej zagadnień związanych z obsługą SD. Poradnik opisuje czynności wymagane do uruchomienia SD na systemie operacyjnym Windows 10/11 z zainstalowaną kartą graficzną NVIDIA. Możliwe również jest uruchomienie modelu na kartach AMD lub samym CPU.

     

    Z czym to się je?

    Yuno Gasai wcina batona

     

    Stable Diffusion to model opracowany przez innowacyjny start-up Stability AI. Ma on szerokie zastosowanie – od generowania szczegółowych wizualizacji po uzupełnianie brakujących fragmentów obrazów czy kreowanie tła, a nawet tworzenie kierowanych tekstem przeobrażeń obrazu w obraz. Można go wykorzystać do generowania fotorealistycznych obrazów na podstawie dowolnego tekstu wejściowego. Stable Diffusion to wersja modelu, która umożliwia generowanie obrazów o wysokiej jakości w krótkim czasie.

     

    Pełny opis możliwości w języku angielskim dostępny pod tym linkiem:

    https://github.com/AUTOMATIC1111/stable-diffusion-webui#features

     

     

    Wymagania sprzętowo-systemowe

     

     

    Aby uruchomić Stable Diffusion na własnym komputerze, należy spełnić następujące wymagania systemowe:

    • System operacyjny: Windows, MacOS lub Linux.
    • Karta graficzna z co najmniej 4GB pamięci VRAM.
    • Pamięć RAM: 16 GB lub więcej.
    • Wolne miejsce na dysku: 20GB lub więcej, zalecany SSD.
    • Python 3.10.6

     

    Wymagania te są minimalne i pozwalają na generowanie obrazów o rozdzielczości do 512 x 512 pikseli. Aby uzyskać lepszą jakość i wyższą rozdzielczość, zaleca się korzystanie z mocniejszych kart graficznych, takich jak Nvidia RTX 3080, RTX 4080 lub RTX 4090.

     

    Instalacja

     

    • Pobierz z linku poniżej program instalacyjny Python 3.10.6 oraz zainstaluj z domyślnymi ustawieniami postępując według wskazówek instalatora.

               https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe

    •  Pobierz najnowszą stabilną, lub testową wersje SD z GitHub, na dzień pisania poradnika jest to 1.7.0-RC lub 1.6.0 (stabilna).

               https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/

    image.png

    • Wypakuj pobrane archiwum na C:\
    • Uruchom skrypt automatycznej instalacji - webui.bat (w trakcie może zapytać o markę karty graficznej, którą posiadasz). Poczekaj, aż skrypt zainstaluje wszystkie potrzebne pakiety Python oraz pobierze model.

    image.png

     

    Po zakończeniu instalacji oraz poprawnym uruchomieniu otwarte zostanie okno domyślnej przeglądarki internetowej, w której będzie można generować obrazy.

     

    Podstawowe użytkowanie

    Generowanie obrazu

     

    Wpierw należy wybrać model, z którego korzystać będzie AI przy generowaniu obrazu. Preinstalowanym modelem jest StableDiffusion. Dodatkowe modele w formacie VAE/LORA/SAFETENSORS/CHECKPOINT można pobierać z huggingface lub civitai.

     

    image.png

     

    W tym miejscu należy wpisać co chciałbyś, oraz czego nie chciałbyś zobaczyć na wygenerowanym obrazie. Aktualne modele wytrenowane są by rozumieć język angielski.

     

    image.png

     

     Przykładowe zapytanie:

     

    image.png

    Spoiler

    A hyper-realistic photo prompt featuring a ((yuno gasai)), SWAT officer standing guard at an Army Base entrance. She is wearing her tactical gear and holds a rifle in one hand while adjusting the strap on a bulky virtual reality (VR) headset with the other. 

     

    A wynikiem jest:

     

    image.png

     

    Zalecam predefiniować wstępne negatywne ustawienia klikając oraz umieszczająć je w ustawieniach:

     

    image.png

    image.png

    Po zapisaniu przyciskiem ,,Save”. Preset należy wybrać z listy aby został zastosowany.

     

    image.png

     

    Mój preset do skopiowania:

     

    Spoiler

    bad quality, deformed, black and white, painting, ugly, mutilated, disfigured, text, extra limbs, face cut, head cut, extra fingers, extra arms, poorly drawn face, mutation, bad proportions, cropped head, malformed limbs, mutated hands, fused fingers, long neck, cropped, worst quality, low quality, jpeg artifacts, out of frame, watermark, signature, (worst quality, low quality:1.4), monochrome, zombie, (extra fingers, deformed hands, polydactyl:1.5), (tail, cat tail), (water, sea), (censored, white bar)

     

    Zapytania zamknięte w nawias są traktowane ,,priorytetowo’’. Im więcej nawiasów, tym większy nacisk postawi AI na to, co sobie życzysz. Zamienną formułą jest np. ,, Wearing (blue:1.50) v-cut blouse"

     

     

    Modyfikowanie obrazu

     

    Klikająć w przycisk palety kolorów przenosimy nasz obraz (można również wybrać własny, niewygenerowany obraz) do zakładki InPaint, w której możemy określić co, oraz gdzie dodatkowo SD ma dla nas wygenerować zmianę:

     

    image.png

    image.png

     

     

    Zachowywanie pierwotnego obrazu, zmiana stylu.

     

    Platforma od AUTOMATIC1111 umożliwia również zmianę stylu danego obrazu. Aby powielać swoje wyniki należy wygenerować obraz z własnym parametrem seed i nie zmieniać go. 
    Parametr seed składa się z losowych liczb, np. 124156347. 

    Parametr zwany ziarnem gwarantuje otrzymanie podobnych wyników mimo zmiany stylu w zapytaniu, w praktyce wygląda to tak:

     

    Cytat

    A __________ of a Albus Dumbledore standing in front of a castle, looking at the sun on the sky, snowy climate

    W puste miejsce eksperymentuj ze stylami, moje efekty:

    image.png

    Spoiler

    Charcoal / malowanie węglem:

    charcoal.png

     

    Greg Rutkowski:

    Greg Rutkowski.png

     

    Fotografia

    hp1.png

     

    Anime:

    manga.png

     

    Szkic ołówkiem:

    pencil sketch.png

     

    Pop-Art:

    popart.png

     

     

     

    Wpływ parametrów CFG oraz Denoise na wygenerowany obraz.

     

    Parametr CFGScale definiuje jak bardzo AI ma się trzymać zdefiniowanego zapytania, im wartośc wyższa tym opis sytuacji musi być dokładniejszy, im mniejsza - większa kreatywność i dowolność AI. Parametr Denoise kontroluje jak bardzo ma zmienić się generowany obraz, im wartość mniejsza tym mniej zmian, im większa - tym więcej. Platforma umożliwia generowanie siatki generowanych obrazów celem określenia jak nasze ustawienia wpływają na generowany obraz, aby to zrobić należy skorzystać ze skryptu w zakładce img2img. 
    Pierw, przenieś pierwotnie wygenerowany obraz do zakładki img2img klikając przycisk pod zdjęciem image.png.
    Przeniesiony obraz będzie miał zachowany ten sam prompt (zapytanie) oraz seed (ziarno).
    Następnie wybierz z listy script X-Y-Z Plot i ustaw go według własnych potrzeb, dla przykładu moje ustawienia:

    image.png 

     

    A wynikiem jest siatka (skompresowane o 75%):

     

    xyz_grid-0010-253633457457657570.jpg

     

    Korzystanie z modyfikatorów LoRA

     

     

    Istnieją również modyfikatory modeli zwane LoRA, wprowadzające do aktualnego modelu dodatkowe efekty (np. przerabianie ludzi na fury), dodatkowe pozy (np. wybieg mody), lub tematykę (np. mcdonalds).

    Modele LoRA zależne są od głównego modelu i nie zawsze będą działać z innym.
    Dla przykładu, LoRA Monster Hunter zadziała poprawnie tylko z modelem SD w wersji 1.5, nic nie stoi na przeszkodzie by próbować go aplikować na innych modelach.

    Zademonstruje korzystanie z LoRA na poniższym przykładzie

    image.png

    Pobierz interesujące Cię LoRA z linku poniżej

    https://civitai.com/models/48365/palico-monster-hunter-lora

    https://civitai.com/search/models?sortBy=models_v5&query=lora

     

    Wklej pobrany plik do ścieżki:

    X:\stable-diffusion-webui\models\Lora

    Gdzie X, to litera dysku, na którym trzymasz SD Webui. 

     

    Dla przykładu, wygeneruj obraz zapytaniem:

    Cytat

    A hyper-realistic photography prompt featuring an expert archer facing camera and standing tall amidst trees in woods. He's dressed for hunting. 

    image.png

     

    Następnie przejdź do zakładki LoRA i aktywuj modyfikator klikając w niego.

    image.png

    Spowoduje to dopisanie dodatkowego warunku do Twojego zapytania, to jednak nie wszystko. Należy zweryfikować na stronie modelu jakimi słowami kluczowymi się go aktywuje. W notatkach autora można znaleźć wiele przydatnych informacji jak z modelu korzystać, jakie są jego słabe i mocne strony.

    image.png

     

    Aby aktywować lora, do swojego zapytania musisz dodać jedną z w/w fraz, dla przykładu zapytanie:

    Cytat

    A hyper-realistic photography prompt featuring an expert archer facing camera and standing tall amidst trees in woods. He's dressed for hunting.   <lora:lora:1> fur, palico

    Wygenerowało taki obraz:

    00165-654567567212.png

    PS. Utrzymanie źródłowego kontekstu w przypadku korzystania z LoRA jest dla mnie na dzień dzisiejszy niezrozumiałe, trzeba się więcej namęczyć by przerobić zdjęcie źródłowe, łatwiej rozpoczynać generowanie obrazów z użyciem LoRA od podstaw i wtedy zmieniać ich styl.

    Pozostałe

    Cała wiedza pochodzi z GitHub autora interfejsu graficznego, wszyscy autorzy wraz z autorami SD wymienieni są w zakładce ,,Credits” na stronie projektu.

    https://github.com/AUTOMATIC1111/stable-diffusion-webui#credits

     

    Dodatkowe modele TEXT TO IMAGE można pobierać np. z HuggingFace lub Civitai.

    https://huggingface.co/models?pipeline_tag=text-to-image&sort=trending

    https://civitai.com/models

    Modele przenosimy do katalogu ,,models’’ w rozpakowanym na C:\ folderze SD-WebUi.

     

    Model, z którego korzystałem aby wygenerować Yuno Gasai do tematu to CamelliaMix_NSFW.

    https://huggingface.co/digiplay/CamelliaMix_NSFW_diffusers_v1.1/tree/main

     

    Model, z którego korzystałem aby wygenerować Albusa Dumbledore'a do tematu to Dreamlike-photoreal-2.0

    https://huggingface.co/dreamlike-art/dreamlike-photoreal-2.0

     

    Model, z którego korzystałem aby wygenerować Łucznika do tematu to SD v 1.4 + LoRA Palico (Monster Hunter)

    https://civitai.com/models/48365/palico-monster-hunter-lora

     

    Czas generowania obrazu w rozdzielczości 512x512 w/w modelemi na GTX 1080Ti, 32GB Ram oraz Ryzen 7 2gen to ~~10 sekund.

     

     

    Zakończenie

     

    Poradnik porusza jedynie najbardziej podstawowe zagadnienia związane z obsługą a nie rozumieniem procesu generowania obrazu, wiele tematów zostało tu pominiętych lub przeoczonych. 

    Zachęcam do eksperymentowania, teren nie jest w pełni zbadany. Zachęcam również do ewentualnej dyskusji celem rozwinięcia tematu o dodatkowe zawartości, instrukcje czy rozwiązania problemów. Sposobów obsługi oraz generowania obrazów poprzez SD jest ogrom.

  3. 2 generacja nie miała problemu z 16gb w laptopach, tu problemu nie podejrzewam, strzelam że laptop stoi na QM67.

    ba, nawet napiszę więcej, ddr3l mają szansę zadziałać w gnieździe ddr3 i na odwrót, o ile nie są sparowane z drugim typem kości.

  4. W applu wszystko jest możliwe, przecież tam w przewodach lightning jest chip, bo bez niego pali się telefon xD

     

    Oczywiście trochę podkoloryzowane, jednak nie bez powodu certyfikacja appla dla przewodów ładujących istnieje. Jeżeli korzystasz z nieoryginalnego przewodu - wg. producenta możesz uszkodzić telefon i baterie. 

  5. Nie znam apple cleanera, musiałbyś podesłać źródło. HWID spooferów też na forum jest kilka, zbyt mało precyzyjnie się wypowiadasz.

    Jeżeli rzeczywiście nie chce Ci się ratować systemu i reinstall jest dla Ciebie szybszą opcją to dysków prawdopodobnie nie widzisz gdyż w biosie masz ustawiony ich tryb pracy na ,,Intel RST"

    Poszukaj opcji podobnej do tej lub wrzuć zrzuty ekranu biosu

    image.png

     

    Jeżeli trafiłem dobrze, to albo zmień na AHCI i Ci wykryje dyski, albo zostań przy intel RST tylko ściągnij wcześniej ze strony producenta sterownik do RST  i wrzuć na pendrive, tak żeby podać instalatorowi sterownik jeszcze przed instalacją.

  6. 9 godzin temu, Poyui napisał(a):

    aby to zrobić musiałem zmienic mac adress/hwid/ jakies karty sieciowe itp po zmianie tego wszystkiego

    Mimo że w prawdzie nie zadałeś pytania, tak sam sobie postawiłeś odpowiednią tezę. Jak najbardziej zabawa w ustawienia sieciowe może spowodować problemy z aktywacją windy. Teraz po swoich śladach w tył zwrot i szukaj, które z działań to spowodowało. Jeżeli opiszesz wszystkie procedury, które wykonałeś, być może będę potrafił wskazać winowajcę.

  7. Sprawdź czy na telefonie nie masz włączonej funkcji losowych maców, to lubi czasem rozłączać telefony.

    Takie głupie rozwiązania jak zapomnienie sieci, zmiana hasła wifi czy nawet kanału może też pomóc.

    Instalacja pihole to 10 minut, nawet dla kogoś kto się boi linuxa. Jest zautomatyzowany skrypt polegający na dalej, dalej, dalej.

  8. Możesz spróbować taki patent:

    main-qimg-ed54ddfea95c4375962a409fbe3bcf

     

    Blokujesz w ten sposób 5V+, zostaje DATA+ i - oraz GND, innymi słowy. Nie ma zasilania, jest sama data. Nie będzie ładować w ogóle. Ale czy to rozwiązuje problem?

    Problem, z którym sobie próbujesz poradzić podobno bardzo często występuje w AndroidAuto, po naładowaniu do 100% rozłącza USB. Może poszukaj w tym temacie jakichś rozwiązań.

    Sprawdź też czy w opcjach programisty nie masz funkcji ,,usb stay awake'', w niektorych telefonach takie coś jest zaraz obok debugowania usb.

     

  9. A nie jest to wpływ zasięgu? Jeżeli masz szum na 2,4GHz to mysz będzie świrować.

    Sprawdź na innym systemie by wyeliminować wpływ oprogramowania trzeciego, anti-keylogger filter w którymś z oprogramowań antywirusowych zawieszał klientowi klawiaturę, pół wlosów z głowy sobie wyrwałem zanim to znalazłem, czysty system na innym dysku szybciej.

    W czasach csa 1.6 wyłączenie akceleracji myszy popularne było przez rejestr:

    https://www.techpowerup.com/download/cpl-mouse-fix/

    Na 10 wciąż działało.

     

    No i wszyscy piszą o tym byś przepiął do innego portu USB, a może też popróbuj odpiąć wszystko inne z USB?

     

  10. Da się zalogować na router vectry czy ta dzierżawa jest tak lewa że nie dają dostępu?

    Spróbuj na kompie ustawić inny dns na swoim połączeniu i zobacz czy Ci hula, jeżeli tak to taki sam dns ustaw na TV.

    Zrób traceroute do tego iptv co Ci zablokowali na swoim łączu i na hotspocie z telefonu to może i bez żadnych VPNów się może obejdzie.

     

    Ja korzystam z lokalnego PiHole, blokowanie reklam po stronie dns, mam wpisany w telewizor swój DNS i jak odpalam jakieś aplikacje typu PolsatVOD to nie mam reklam, mimo że korzystam z konta darmowego.

    Nie mam reklam, bo PiHole jako DNS ubija połączenie.

    U ciebie chcemy zrobić na odwrót, by inny DNS rozwiązał nazwę, której vectrowy nie rozwiązuje.

  11. Na żywca bez sanek tylko trafić w sate musisz 😛

    A nawet jeżeli to te sanki to na jedną tą fajną śrubkę z iksem, kwadratem, kółkiem i trojkątem wkręcasz

    To co piszesz wyżej o tarciu dysku brzmi źle. Rozumiem teraz nie masz tej konsoli, ale przecież możemy łatwiej, w drugą stronę. Zamiast podłączać swój dysk do konsoli, podłącz jego dysk do kompa i odczytaj smart, wnioskując po ,,dziwnych'' mechanicznych dźwiękach pewnie będzie czerwony.

     

    Pamiętam czasy gdy zawieszającego się peceta ludzie traktowali z buta, no cóż, na chwilę się odwiesił bo głowica przeskoczyła, ale ile nowych badów przy okazji to nikt nie myślał

    Jakiś czas temu odmówiliśmy podjęcia się naprawy konsoli wyrzuconej przez okno, więc w sumie temat wciąż żywy xD

  12. W jaką obudowę? Od boku wsuń go do konsoli. Nie masz pod ręką jakiegoś sata3 laptopowego? SSD lub HDD, diskpartem cleana zrób i bez partycji wsadź do konsoli. PS4UPDATE.PUP zrobi resztę. 

    I tak, ten pełny plik update jest poprawny, jakoś 1gb ważył.

  13. Na oko to wiesz, może nie być pękniety a nie będzie działal, weź miernik i sprawdź przewodność bezpieczników, one na pesce są bardzo dobrze oznaczone, duże litery np F6202 i F6201 na pewno + kilka innych.
    Nie potrafię na 100% powiedzieć czy brak przycisku power spowodowałby brak możliwości wyjścia z safemode. Jak nam plejka na pająka dała obraz to już wsadzaliśmy do obudowy. 

    Pytanie czy plejka się odpalała do systemu zanim się za nią wziąłeś, nie wyczerpałeś jeszcze wszystkich łatwych możliwości z dyskiem, to że od wyłączania/włączania plejki padł system lub dysk nie jest niemożliwe, tym bardziej jeżeli to hdd. Spotkaliśmy się nawet z tym że 1:1 klon zrobiony z jednego dysku na drugi zadziałał, konsoli nie pasowała wtedy sama po prostu marka nowego dysku. Cuda panie.

     

    PS. Wpadlęm na to na sam koniec pisania posta

    Ty, a dobry PS4Update.PUP wziąłeś? bo wiesz że są dwa, nie?

     

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Regulamin. Polityka prywatności