Umělá inteligence vylepší fotoaparát v Androidu P a kupodivu nepůjde o focení

Celá úvodní přednáška konference Google I/O se nesla v duchu integrace umělé inteligence do různých produktů a je jen pochopitelné, že je i ve fotoaparátu. Vždyť loni to byla právě umělá inteligence, co vyneslo Pixel 2 na vrchol žebříčku fotomobilů DxO Mark. Tentokrát však překvapivě nejde o obrazovou kvalitu, Google použije fotoaparát jako vstupní bránu pro vyhledávání a zapojí rozšířenou realitu pro nevídaně názornou navigaci.

Příklad první. Vyjdete z metra a navigace v mobilu zahlásí, abyste se vydali na jih. Typické řešení? Jdete někam a sledujete, jestli se modrý puntík hýbe směrem k cíli. V městské džungli výškových budov, které brání příjmu z GPS satelitů, to může trvat docela dlouho, než zjistíte, že jdete na druhou stranu.

Android P přinese řešení. Spojí fotoaparát, mapy a rozšířenou realitu, takže na jednom displeji uvidíte reálný svět, do něj přidané šipky, které vám jasně ukazují, kam máte jít a dole vidíte 3D pohled na mapu, takže si stále udržujete přehled o trase.

Problém je, že na tohle GPS a elektronický kompas nestačí, takže Google vypracoval systém VPS – Visual Positioning System. Umělá inteligence analyzuje to, co vidí skrze fotoaparát, spáruje to s informacemi v mapě a přesně určí zeměpisnou polohu telefonu a jeho orientaci v prostoru.

Vyhledávat pomocí textového výrazu je pro nás za ty roky přirozené, ale jsou věci, na které je obtížné se zeptat. Co je tohle za budovu? A umělá inteligence už je na takové úrovni, že dokáže přes fotoaparát v reálném čase poznat nejen to, že míříte na psa, ale rovnou vám řekne, jaká je to rasa. Funkce/aplikace se jmenuje Google Lens a brzy bude integrovaná ve smartphonech 11 značek – LG G7 ThinQ pro ni dokonce má samostatné tlačítko na boku telefonu:

Na I/O Google představil tři nové funkce pro Google Lens:

  • Funkce Smart Text Selection dává fotoaparátu schopnost pracovat s tištěným textem. Namíříte na papír, na displeji prstem označíte písmenka tak, jak jste zvyklí to dělat třeba ve webovém prohlížeči, a úryvek se zkopíruje do schránky. Spojka mezi virtuálním a reálným světem. Příklad druhý – ťukáte na jména v restauračním menu a dole na displeji vám vyskakují základní informace – co to je, z čeho to je a jak to vypadá. Už nemusíte slova opisovat do translatoru a pak je googlit.
  • Style Match: vyfotíte lampu/boty a požádáte Google Lens, aby vyhledal produkty v podobném stylu.
  • Real-time Results. Míříte fotoaparátem na různé objekty, systém je rozpoznává, vyskočí na nich barevný puntík, na který stačí ťuknout a získáte informace. V případě, že Google spáruje rozpoznaný objekt s videem na YouTube, zobrazí jej na displeji přes část tohoto objektu. Stačí ťuknout na tlačítko play.

A tady to všechno máte v akci v úryvku ze včerejší keynote:

Diskuze (4) Další článek: Od nadšení po zbytečnosti. Máme Android P a vyzkoušeli jsme všechny novinky

Témata článku: Google, Android, Mobilní fotografie, Android P, Fotoaparát, Umělá inteligence, Google I/O, Rozšířená realita, YouTube, Webový prohlížeč, Google Lens, Modrý puntík, Tištěný text, Reálný čas, Virtuální svět, Obrazová kvalita, Vstupní brána, Barevný puntík, Nová funkce, DxO Mark, Zeměpisná poloha, Lens, Elektronický kompas, Příklad první, Displej

Určitě si přečtěte