Развертывание пользовательских моделей на кросс-платформенных платформах
Эффективно запускайте модели JAX, Keras, PyTorch и TensorFlow на Android, iOS, веб-устройствах и встраиваемых устройствах, оптимизированные для традиционного машинного обучения и генеративного искусственного интеллекта.
Создавайте собственные конвейеры для сложных функций машинного обучения
Создайте свою собственную задачу, эффективно объединяя несколько моделей машинного обучения вместе с логикой предварительной и последующей обработки. Запускайте ускоренные конвейеры (GPU и NPU) без блокировки на CPU.
Инструменты и фреймворки, на которых работают приложения Google
Изучите полный спектр решений для искусственного интеллекта с продуктами на каждом уровне — от API с минимальным кодированием до библиотек аппаратного ускорения.
Задачи MediaPipe
Быстро встраивайте функции ИИ в мобильные и веб-приложения, используя API с минимальным кодированием для выполнения распространенных задач, охватывающих генеративный ИИ, компьютерное зрение, текст и аудио.
Генеративный ИИ
Интегрируйте генеративный язык и модели изображений непосредственно в свои приложения с помощью готовых к использованию API.
Зрение
Изучите широкий спектр задач зрения, охватывающих сегментацию, классификацию, обнаружение, распознавание и ориентиры тела.
Текст и аудио
Классифицируйте текст и аудио по многим категориям, включая язык, тональность и ваши собственные категории.
Начать
Документация по задачам
Найдите все наши готовые задачи MediaPipe с низким кодом, включая документацию и примеры кода.
Генеративные задачи ИИ
Запускайте LLM и модели диффузии на периферии с помощью наших генеративных задач ИИ MediaPipe.
Попробуйте демо-версии
Изучите нашу библиотеку задач MediaPipe и попробуйте выполнить их самостоятельно.
Документация производителя модели
Настройте модели в наших задачах MediaPipe, используя собственные данные.
Фреймворк MediaPipe
Низкоуровневая структура, используемая для создания высокопроизводительных ускоренных конвейеров машинного обучения, часто включающая несколько моделей машинного обучения в сочетании с предварительной и последующей обработкой.
Развертывайте модели ИИ, созданные в любой среде, на мобильных устройствах, в веб-приложениях и на микроконтроллерах с оптимизированным аппаратным ускорением.
Мультифреймворк
Конвертируйте модели из JAX, Keras, PyTorch и TensorFlow для работы на периферии.
Кроссплатформенный
Запускайте одну и ту же модель на Android, iOS, в веб-приложениях и на микроконтроллерах с помощью собственных SDK.
Легкий и быстрый
Эффективная среда выполнения LiteRT занимает всего несколько мегабайт и обеспечивает ускорение моделей на CPU, GPU и NPU.
Начать
Выберите модель
Выберите новую модель, переобучите существующую или принесите свою собственную.
Конвертировать
Конвертируйте модель JAX, Keras, PyTorch или Tensorflow в оптимизированную модель LiteRT.
Развертывать
Запустите модель LiteRT на Android, iOS, в Интернете и на микроконтроллерах.
Квантовать
Сожмите модель, чтобы уменьшить задержку, размер и пиковый объем памяти.
Модель Explorer
Визуально исследуйте, отлаживайте и сравнивайте свои модели. Накладывайте тесты производительности и числовые данные, чтобы выявить проблемные точки.
Пошаговое руководство по решениям GenAI на устройствах Android
1 октября 2024 г.
Как перенести вашу модель ИИ на устройства Android
2 октября 2024 г.
Gemini Nano теперь доступен на Android через экспериментальный доступ
1 октября 2024 г.
TensorFlow Lite теперь LiteRT
4 сентября 2024 г.
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],[],[],[],null,["Deploy AI across mobile, web, and embedded applications\n\n - \n\n On device\n\n Reduce latency. Work offline. Keep your data local \\& private.\n- \n - \n\n Cross-platform\n\n Run the same model across Android, iOS, web, and embedded.\n- \n - \n\n Multi-framework\n\n Compatible with JAX, Keras, PyTorch, and TensorFlow models.\n- \n - \n\n Full AI edge stack\n\n Flexible frameworks, turnkey solutions, hardware accelerators\n\nReady-made solutions and flexible frameworks \n\nLow-code APIs for common AI tasks\n\nCross-platform APIs to tackle common generative AI, vision, text, and audio tasks.\n[Get started with MediaPipe tasks](https://ai.google.dev/edge/mediapipe/solutions/guide) \n\nDeploy custom models cross-platform\n\nPerformantly run JAX, Keras, PyTorch, and TensorFlow models on Android, iOS, web, and embedded devices, optimized for traditional ML and generative AI.\n[Get started with LiteRT](https://ai.google.dev/edge/litert) \n\nShorten development cycles with visualization\n\nVisualize your model's transformation through conversion and quantization. Debug hotspots by\noverlaying benchmarks results.\n[Get started with Model Explorer](https://ai.google.dev/edge/model-explorer) \n\nBuild custom pipelines for complex ML features\n\nBuild your own task by performantly chaining multiple ML models along with pre and post processing\nlogic. Run accelerated (GPU \\& NPU) pipelines without blocking on the CPU.\n[Get started with MediaPipe Framework](https://ai.google.dev/edge/mediapipe/framework) \n\nThe tools and frameworks that power Google's apps \nExplore the full AI edge stack, with products at every level --- from low-code APIs down to hardware specific acceleration libraries. \n\nMediaPipe Tasks \nQuickly build AI features into mobile and web apps using low-code APIs for common tasks spanning generative AI, computer vision, text, and audio. \nGenerative AI\n\nIntegrate generative language and image models directly into your apps with ready-to-use APIs. \nVision\n\nExplore a large range of vision tasks spanning segmentation, classification, detection, recognition, and body landmarks. \nText \\& audio\n\nClassify text and audio across many categories including language, sentiment, and your own custom categories. \nGet started \n[Tasks documentation\nFind all of our ready-made low-code MediaPipe Tasks with documentation and code samples.](https://ai.google.dev/edge/mediapipe/solutions/guide) \n[Generative AI tasks\nRun LLMs and diffusion models on the edge with our MediaPipe generative AI tasks.](https://ai.google.dev/edge/mediapipe/solutions/genai/llm_inference) \n[Try demos\nExplore our library of MediaPipe Tasks and try them yourself.](https://goo.gle/mediapipe-studio) \n[Model maker documentation\nCustomize the models in our MediaPipe Tasks with your own data.](https://ai.google.dev/edge/mediapipe/solutions/model_maker) \n\nMediaPipe Framework \nA low level framework used to build high performance accelerated ML pipelines, often including multiple ML models combined with pre and post processing. \n[Get started](https://ai.google.dev/edge/mediapipe/framework) \n\nLiteRT \nDeploy AI models authored in any framework across mobile, web, and microcontrollers with optimized hardware specific acceleration. \nMulti-framework\n\nConvert models from JAX, Keras, PyTorch, and TensorFlow to run on the edge. \nCross-platform\n\nRun the same exact model on Android, iOS, web, and microcontrollers with native SDKs. \nLightweight \\& fast\n\nLiteRT's efficient runtime takes up only a few megabytes and enables model acceleration across CPU, GPU, and NPUs. \nGet started \n[Pick a model\nPick a new model, retrain an existing one, or bring your own.](https://ai.google.dev/edge/litert/models/trained) \n[Convert\nConvert your JAX, Keras, PyTorch, or Tensorflow model into an optimized LiteRT model.](https://ai.google.dev/edge/litert/models/convert_to_flatbuffer) \n[Deploy\nRun a LiteRT model on Android, iOS, web, and microcontrollers.](https://ai.google.dev/edge/litert#integrate-model) \n[Quantize\nCompress your model to reduce latency, size, and peak memory.](https://ai.google.dev/edge/litert/models/model_optimization) \n\nModel Explorer \nVisually explore, debug, and compare your models. Overlay performance benchmarks and numerics to pinpoint troublesome hotspots. \n[Get started](https://ai.google.dev/edge/model-explorer) \n\nGemini Nano in Android \\& Chrome \nBuild generative AI experiences using Google's most powerful, on-device model \n[Learn more about Android AICore](https://developer.android.com/ai/aicore) [Learn more about Chrome Built-In AI](https://developer.chrome.com/docs/ai) \n\nRecent videos and blog posts \n[A walkthrough for Android's on-device GenAI solutions\n1 October 2024](https://www.youtube.com/watch?v=EpKghZYqVW4) \n[How to bring your AI Model to Android devices\n2 October 2024](https://android-developers.googleblog.com/2024/10/bring-your-ai-model-to-android-devices.html) \n[Gemini Nano is now available on Android via experimental access\n1 October 2024](https://android-developers.googleblog.com/2024/10/gemini-nano-experimental-access-available-on-android.html) \n[TensorFlow Lite is now LiteRT\n4 September 2024](https://developers.googleblog.com/en/tensorflow-lite-is-now-litert)"]]