Celá úvodní přednáška konference Google I/O se nesla v duchu integrace umělé inteligence do různých produktů a je jen pochopitelné, že je i ve fotoaparátu. Vždyť loni to byla právě umělá inteligence, co vyneslo Pixel 2 na vrchol žebříčku fotomobilů DxO Mark. Tentokrát však překvapivě nejde o obrazovou kvalitu, Google použije fotoaparát jako vstupní bránu pro vyhledávání a zapojí rozšířenou realitu pro nevídaně názornou navigaci.
Příklad první. Vyjdete z metra a navigace v mobilu zahlásí, abyste se vydali na jih. Typické řešení? Jdete někam a sledujete, jestli se modrý puntík hýbe směrem k cíli. V městské džungli výškových budov, které brání příjmu z GPS satelitů, to může trvat docela dlouho, než zjistíte, že jdete na druhou stranu.
Android P přinese řešení. Spojí fotoaparát, mapy a rozšířenou realitu, takže na jednom displeji uvidíte reálný svět, do něj přidané šipky, které vám jasně ukazují, kam máte jít a dole vidíte 3D pohled na mapu, takže si stále udržujete přehled o trase.
Problém je, že na tohle GPS a elektronický kompas nestačí, takže Google vypracoval systém VPS – Visual Positioning System. Umělá inteligence analyzuje to, co vidí skrze fotoaparát, spáruje to s informacemi v mapě a přesně určí zeměpisnou polohu telefonu a jeho orientaci v prostoru.
Vyhledávat pomocí textového výrazu je pro nás za ty roky přirozené, ale jsou věci, na které je obtížné se zeptat. Co je tohle za budovu? A umělá inteligence už je na takové úrovni, že dokáže přes fotoaparát v reálném čase poznat nejen to, že míříte na psa, ale rovnou vám řekne, jaká je to rasa. Funkce/aplikace se jmenuje Google Lens a brzy bude integrovaná ve smartphonech 11 značek – LG G7 ThinQ pro ni dokonce má samostatné tlačítko na boku telefonu:
Na I/O Google představil tři nové funkce pro Google Lens:
- Funkce Smart Text Selection dává fotoaparátu schopnost pracovat s tištěným textem. Namíříte na papír, na displeji prstem označíte písmenka tak, jak jste zvyklí to dělat třeba ve webovém prohlížeči, a úryvek se zkopíruje do schránky. Spojka mezi virtuálním a reálným světem. Příklad druhý – ťukáte na jména v restauračním menu a dole na displeji vám vyskakují základní informace – co to je, z čeho to je a jak to vypadá. Už nemusíte slova opisovat do translatoru a pak je googlit.
- Style Match: vyfotíte lampu/boty a požádáte Google Lens, aby vyhledal produkty v podobném stylu.
- Real-time Results. Míříte fotoaparátem na různé objekty, systém je rozpoznává, vyskočí na nich barevný puntík, na který stačí ťuknout a získáte informace. V případě, že Google spáruje rozpoznaný objekt s videem na YouTube, zobrazí jej na displeji přes část tohoto objektu. Stačí ťuknout na tlačítko play.
A tady to všechno máte v akci v úryvku ze včerejší keynote: