Что показал Google? (I/O)
Что показал Google? (I/O)* – Пока недоступно, позже в этом году.*Google Beam - новая технология в партнерстве с HP, которая будет создать эффект присутствия, типа сидишь перед большим монитором с камерами, она тебя сканирует и транслирует изображение в 3д, и если другой сидит с таким же, то мозг и глаза будут видеть это как будто в реальности. *Google Meet появится голосов перевод в реальном времени, это прикольно, потому что в японскую компанию (тут пост) , я собеседования с переводчиком (от компании), а так можно было бы просто включить перевод)).Gemini (это ChatGPT от Гугл) получил Live (как у чатгпт), можно показывать с камеры все и просить рассказать про то что видно. Но лучше, можно навести на карту/дату в календаре и попросить создать встречу или сохранить место в гугл сервисах. Уже доступно в США.*Project Mariner - тула которая будет выполнять действия за вас в браузере, например попросить забронить отель/билеты самые выгодные или заполнить 100 анкет на вакансии (как Operator у ChatGPT). .*Gmail AI - сможет «умно отвечать», обучаясь на всей вашей информации которая у Google в облаке типа заметки, документы, файлы, фото и тд., типа если у вас excel где вы считали бюджет на ремонт, и вам напишет кто-то «Не подскажешь сколько может стоить стены покрасить в кв?», то Gmail AI, посмотрит ваш файл и предложит ответ типа вот обычно столько то за кв.м. Новая версия Gemini Flash 2.5, научилась отвечать голосом (Русский есть), говорят хороша в кодинге, как обычно еще быстрее и умнее чем предыдущая модель)Google Jules - это как Codex (от OpenAI), который я упоминал тут , тоже умеет писать код, баги фиксить, и поднимать PR Gemini Diffusion - экспериментальная модель, которая моментально отвечает большим объемом текста, например обычно если написать ИИ «придумай сказку про белого бычка» будет по словам писать и займет время, а в этом примере весь текст появится за секунду или быстрее Gemini 2.5 Pro - такая же умная или где то даже лучше чем новая модель OpenAI (ChatGPT), но более доступно для «обычных людей» так как все доступно через веб и моб приложение, а не как у OpenAI через API.*Google Search AI mode - Загуглить теперь можно с AI, видимо в Гугл увидели что трафик из поисковых систем уходит в AI, и пора возвращать) теперь поиск будет умным (как обычно с учетом ваших персональных пожеланий - но говорят можно выключить будет). Будет доступен в том числе deep search и data visualization. Будет доступно в 200 странах и на 40 языках.*Search Live - одежду в гугле, можно примерить, свою фотку в полный рост загрузить, и увидеть как будет выглядеть в этой одежде. Плюс купить одним кликом (AI агент все сделает), онлайн шопинг на новом уровне).Deep Research по своим файлам, можно подгружать свои файлы и провести какой то ресерчGemini будет доступно встроено в браузер Chrome как плагин, который будет всегда под рукой.Imagen 4 делает качественные изображения. Можно делать обложки.Veo 3 делает качественно видео со звуком, выглядит очень мощно, там описать сцену и кадр и это будет сгенерировано, кажется в будущем будут мультики, фильмы, сериалы полностью сгенерированы AI, а с «живыми актерами» будут помечены отдельно как что то крутое и дорогое).Lyria 2 делает качественно музыку (уровня крутых саундтреков к фильмам).SynthID - в такой контент будет встроен отпечаток по которому можно будет идентифицировать автоматичесуи что это ИИ-контент, чтобы бороться с дезинформацией, подделкой, для авторства и тд.Будет два плана (в мес)Pro 20$Ultra 250$ (будет встроен ютуб премиум, берем?)Новая ОС Android XR (для работы с умными устройствами)Project Moohan - это Apple Vision Pro (большие очки), будет доступно позже в этом году, пока без подробностей.Glasses - «обычные очки» с наушником, камерой, микрофоном, короче как Rayban Meta, но умнее с дополненной реальностью, с картой и перевод в реальном времениApple вчера подсуетились и прислали напоминание что WWDC будет 9-13 июня, миленькие мои, если вы не покажете хотя бы тоже самое или лучше, придется перейти на андроид. (нет)#google | @andreyposnov