Ostatnio wydaje się, że generatory tekstu na obraz były najgorętszym nowym trendem pojawiającym się w społeczności AI. Po prostu napisz fragment tekstu do tych programów, a wygenerują one niezwykle realistyczny i dokładny obraz pasujący do Twojego opisu. Wcześniej był to OpenAI PŁYTA to był lider w dziedzinie generowania tekstu na obraz, ale teraz Google wyszedł z własnym programem o nazwie Obraz.
Przedstawiamy Imagen, nowy model syntezy tekstu na obraz, który może generować fotorealistyczne obrazy o wysokiej wierności na głębokim poziomie rozumienia języka. Dowiedz się więcej i sprawdź kilka przykładów #obraz at https://t.co/RhD6siY6BY pic.twitter.com/C8javVu3iW
— Sztuczna inteligencja Google (@GoogleAI) 24 maja 2022 r.
Jak to działa?
Jedynym sposobem zrozumienia możliwości systemów jest przejrzenie niektórych obrazów, które mogą wygenerować. Każdy obraz jest tworzony z tekstu wprowadzonego do monitu, który jest podawany do samego programu Imagen. Wynik staje się, jak mówi Google, obrazem o „niespotykanym fotorealizmie”.
Wystarczy wpisać, co chcesz, a program wygeneruje to za Ciebie. Możesz znaleźć kilka próbek na stronie Imagen, ale musisz spojrzeć na nie z przymrużeniem oka. Kiedy modele badawcze są publikowane, stojące za nimi zespoły mają tendencję do wybierania najlepszych wyników. Tak więc, chociaż mogą wyglądać niesamowicie, mogą nie odzwierciedlać naprawdę średniej wydajności podanej przez system.
W porządku, Google stworzył również własne narzędzie AI, które tworzy fotorealistyczne obrazy z podpowiedzi tekstowych! Ten nazywa się Imagen. Bardzo podobny do DALL-E. STRASZNIE DOBRE wynikihttps://t.co/RdlHzyv53v pic.twitter.com/JDr4Cl2CDO
- Marques Brownlee (@MKBHD) 25 maja 2022 r.
Tego programu AI nie należy mylić z czymś takim jak odwrotne wyszukiwania grafiki w Google, ponieważ ten program tworzy coś nowego i unikalnego z dostarczonego mu tekstu. System Imagen AI firmy Google nie jest obecnie dostępny dla ogółu społeczeństwa, głównie ze względu na to, że nie jest w pełni gotowy. Innym powodem jest to, że model nieustannie uczy się z każdym nowym obrazem, który generuje, więc jeśli zostanie opublikowany publicznie, ludzie mogą go nadużywać. Może to zakończyć się nauczeniem sztucznej inteligencji nieodpowiednich treści, takich jak generowanie bardzo dokładnych, ale fałszywych obrazów, które mogą być wykorzystywane jako mistyfikacja lub nękanie.
Jak stwierdził sam Google, systemy te będą kodować uprzedzenia społeczne i rasowe, co oznacza, że ich wyniki są często seksistowskie, rasistowskie, a czasem bardzo toksyczne. Będzie bardzo ciekawie zobaczyć, jakie narzędzia takie jak Imagen i DALL-E przynoszą światu dzięki swoim innowacyjnym technologiom.
Zdjęcie: funkcja obraz jest symboliczny i został zabrany przez Bekki Bekks.