Вы можете использовать Visual Studio для создания программ C++ уровня «Стандартный». Выполнив действия, описанные в этом пошаговом руководстве, вы можете создать проект, добавить новый файл в проект, изменить файл, чтобы добавить код C++, а затем скомпилировать и запустить программу с помощью Visual Studio.
Вы можете ввести собственную программу C++ или использовать один из примеров программ. Пример программы в этом пошаговом руководстве является консольным приложением. Это приложение использует set контейнер в стандартной библиотеке C++.
Если требуется соответствие определенной версии стандарта языка C++ (например, C++14, C++17 или C++20), используйте параметр компилятора /std:c++14 , /std:c++17 или /std:c++20 . (Visual Studio 2017 и более поздние версии.)
Предварительные требования
Для выполнения этого пошагового руководства читатель должен владеть основами языка C++.
Создание проекта и добавление исходного файла
Приведенные ниже инструкции немного отличаются в зависимости от используемой версии Visual Studio. Чтобы ознакомиться с документацией по предпочтительной версии Visual Studio, используйте селектор Версия. Он находится в верхней части оглавления на этой странице.
КАК НАПИСАТЬ СВОЮ ПЕРВУЮ ПЕСНЮ? ПРОСТАЯ РАБОЧАЯ СХЕМА
Создание проекта C++ в Visual Studio
- В главном меню выберите Файл >Создать >Проект, чтобы открыть диалоговое окно Создание проекта.
- В верхней части диалогового окна задайте для параметра Язык значение C++, для параметра Платформа значение Windows, а для Типа проекта — Консоль.
- В отфильтрованном списке типов проектов щелкните Консольное приложение, а затем нажмите кнопку Далее. На следующей странице введите имя проекта и при необходимости укажите расположение проекта.
- Нажмите кнопку Создать, чтобы создать проект.
Создание проекта C++ в Visual Studio 2017
- Создайте проект, наведите указатель на пункт Создать в меню Файл и выберите Пункт Проект.
- В области Типы проектов Visual C++ щелкните Рабочий стол Windows, а затем — Консольное приложение Windows.
- Введите имя проекта. По умолчанию решение, содержащее проект, имеет то же имя, что и проект, но вы можете ввести другое имя. Вы также можете ввести другое расположение для проекта.
- Чтобы создать проект, нажмите кнопку ОК .
Создание проекта C++ в Visual Studio 2015
- Создайте проект, наведите указатель на пункт Создать в меню Файл и выберите Пункт Проект.
- В области Типы проектов Visual C++ щелкните Рабочий стол Windows, а затем — Консольное приложение Windows.
- В диалоговом окне Новый проект разверните узел Установленные>шаблоны>Visual C++, а затем выберите Win32. В центральной области выберите Консольное приложение Win32.
- Введите имя проекта. По умолчанию решение, содержащее проект, имеет то же имя, что и проект, но вы можете ввести другое имя. Вы также можете ввести другое расположение для проекта.
- Чтобы создать проект, нажмите кнопку ОК .
- Завершите работу мастера приложений Win32.
- Нажмите кнопку Далее, а затем убедитесь, что консольное приложение выбрано, и снимите флажок Предкомпилированные заголовки .
- Нажмите кнопку Готово.
Добавление нового исходного файла
- Если Обозреватель решений не отображается, в меню Вид выберите Обозреватель решений.
- Добавьте в проект новый исходный файл, как показано ниже.
- В Обозреватель решений щелкните правой кнопкой мыши папку Исходные файлы, наведите указатель на пункт Добавить и выберите пункт Создать элемент.
- В узле Код щелкните Файл C++ (CPP), введите имя файла и нажмите кнопку Добавить.
CPP-файл отображается в папке Исходные файлыв Обозреватель решений, а файл открывается в редакторе Visual Studio.
ПОШАГОВАЯ ИНСТРУКЦИЯ | Как создать свой бренд одежды с нуля
Источник: learn.microsoft.com
Пошаговое руководство по созданию чат-бота на основе ваших собственных документов с помощью GPT
Общение с ChatGPT — это весёлый и информативный процесс. Данного чат-бота можно использовать как для развлечения, так и для серьёзных дел (он может написать для вас код, полноценную программу). А если ещё и полностью разобраться с его функционалом и понимать в сфере программирования, то можно создавать действительно масштабные проекты.
Как мы могли бы использовать его более продуктивно? С недавним выпуском OpenAI API серии GPT 3.5, мы можем делать гораздо больше, чем просто общаться в чате. Одним из очень продуктивных вариантов использования для бизнеса и вашей личной эксплуатации является QA (Question Answering) — вы спрашиваете бота на естественном языке о ваших собственных документах / данных, а он может быстро ответить вам, извлекая информацию из документов и генерируя ответ [1]. Вы можете использовать его для поддержки клиентов, обобщения пользовательских исследований, управления вашей личной информацией и многого другого!
В этой статье я расскажу, как создать собственного QA чат-бота, вы можете перейти непосредственно к разделу “Пошаговое создание чат-бота для вопросов и ответов”)
Изучение различных подходов
Моя повседневная работа — менеджер по продуктам – чтение отзывов клиентов и внутренних документов занимает большую часть моей жизни. Когда появился ChatGPT, мне сразу пришла в голову идея использовать его в качестве помощника, который помог бы мне обобщать отзывы клиентов или находить связанные старые документы по продукту о функции, над которой я работаю.
Сначала я подумал о тонкой настройке модели GPT с помощью моих собственных данных для достижения поставленной цели. Но тонкая настройка стоит немалых денег и требует большого набора данных с примерами. Также невозможно выполнять точную настройку каждый раз, когда в документ вносятся изменения. Ещё более важным моментом является то, что тонкая настройка просто НЕ может позволить модели “знать” всю информацию в документах, скорее она обучает модель новому навыку. Следовательно, для контроля качества (с несколькими) документами тонкая настройка – это не тот путь, которым следует идти.
Второй подход, который приходит мне на ум, – это разработка подсказок путем предоставления контекста в них. Например, вместо того, чтобы задавать вопрос напрямую, я могу добавить исходное содержимое документа перед самим вопросом. Но модель GPT имеет ограниченный объём внимания — она может вместить всего несколько тысяч слов в подсказку (около 4000 токенов или 3000 слов). Невозможно предоставить весь контекст в подсказке, при условии, что у нас есть тысячи электронных писем с отзывами клиентов и сотни документов о продукте. Это также дорого, если вы переходите в длительном контексте к API, потому что цена основана на количестве используемых вами токенов.
I will ask you questions based on the following context: — Start of Context — YOUR DOCUMENT CONTENT — End of Context— My question is: “What features do users want to see in the app?”
Поскольку подсказка имеет ограничения на количество входных токенов, мне пришла в голову идея сначала использовать алгоритм для поиска документов и выбора соответствующих выдержек, а затем передавать только эти соответствующие контексты в модель GPT с моими вопросами. Пока я изучал эту идею, я наткнулся на библиотеку под названием gpt-index (теперь переименованную в LlamaIndex), которая делает именно то, что мне надо, и проста в использовании [2].
В следующем разделе я дам пошаговое руководство по использованию LlamaIndex и GPT для создания чат-бота для вопросов и ответов на основе ваших собственных данных.
Пошаговое создание QA чат-бота на основе существующих документов с помощью LlamaIndex и GPT (text-davinci-003), чтобы вы могли задавать вопросы о вашем документе и получать ответы от чат-бота. И всё это будет происходить на естественном языке.
Подготовка
Прежде чем мы начнём, нам нужно подготовить несколько вещей:
- Ваш ключ OpenAI API, который можно найти по адресу https://platform.openai.com/account/api-keys .
- База данных ваших документов. LlamaIndex поддерживает множество различных источников данных, таких как Neptune, Google Docs, Asana и т.д. [3]. В этом руководстве мы будем использовать простой текстовый файл для демонстрации.
- Локальная среда Python или Google Colab notebook.
План
Рабочий процесс прост и занимает всего несколько шагов:
- Создание индекса данных вашего документа с помощью LlamaIndex
- Запрос индекса с помощью естественного языка
- LlamaIndex извлечёт соответствующие части и передаст их в подсказку GPT
- Спросите GPT с соответствующим контекстом, а он выведет ответ
Что делает LlamaIndex, так это преобразует данные вашего исходного документа в векторизованный индекс, который очень эффективен для запроса. Он будет использовать этот индекс для поиска наиболее релевантных частей на основе сходства запроса и данных. Затем он вставит полученное в подсказку, которую отправит в GPT, чтобы у GPT был контекст для ответа на ваш вопрос.
Установка
Сначала нам нужно будет установить библиотеки. Просто запустите следующую команду в своём терминале или в Google Colab notebook. Эти команды установят как LlamaIndex, так и OpenAI.
!pip install llama-index !pip install openai
Далее мы импортируем библиотеки на python и настроим ваш ключ OpenAI API в новом файле .py.
# Import necessary packages from llama_index import GPTSimpleVectorIndex, Document, SimpleDirectoryReader import os os.environ[‘OPENAI_API_KEY’] = ‘sk-YOUR-API-KEY’
Создание индекса и его сохранение
После того, как мы установили необходимые библиотеки и импортировали их, нам нужно будет создать индекс вашего документа.
Чтобы загрузить свой документ, вы можете использовать метод SimpleDirectoryReader, предоставляемый LllamaIndex, или загрузить его из строк.
# Loading from a directory documents = SimpleDirectoryReader(‘your_directory’).load_data() # Loading from strings, assuming you saved your data to strings text1, text2, . text_list = [text1, text2, . ] documents = [Document(t) for t in text_list]
LlamaIndex также предоставляет множество соединителей данных, включая Neptune, Asana, Google Drive, Obsidian и т.д. Вы можете найти доступные соединители данных по адресу https://llamahub.ai/.
После загрузки документов мы можем создать индекс с помощью следующем команды:
# Construct a simple vector index index = GPTSimpleVectorIndex(documents)
Если вы хотите сохранить индекс и загрузить его для дальнейшего использования, вы можете использовать следующие методы:
# Save your index to a index.json file index.save_to_disk(‘index.json’) # Load the index from your saved index.json file index = GPTSimpleVectorIndex.load_from_disk(‘index.json’)
Запрашивание индекса и получение ответа
Запросить индекс очень просто:
# Querying the index response = index.query(«What features do users want to see in the app?») print(response)
И вуаля! Вы получите свой ответ. Под капотом LlamaIndex примет вашу подсказку, выполнит поиск соответствующих фрагментов в индексе и передаст её и соответствующие фрагменты в GPT.
Некоторые примечания для расширенного использования
Приведённые выше шаги показывают только очень простое начальное использование для ответа на вопросы с помощью LlamaIndex и GPT. Но вы можете сделать гораздо больше, чем это. Фактически, вы можете настроить LlamaIndex на использование другой модели большого языка (LLM), использовать другой тип индекса для разных задач, обновлять существующие индексы новым индексом и т.д. Если вам интересно, вы можете прочитать их документацию по адресу https://gpt-index.readthedocs.io/en/latest/index.html .
Заключение
В этой статье мы рассмотрели, как использовать GPT в сочетании с LlamaIndex для создания чат-бота, отвечающего на вопросы о документах. Хотя GPT (и другие LLM) мощны сами по себе, их возможности могут быть значительно усилены, если мы объединим их с другими инструментами, данными или процессами.
Для чего бы вы использовали чат-бота, отвечающего на вопросы о документах?
Источник: uproger.com
Разработка приложения на ChatGPT: пошаговое руководство
Ищете эффективный способ разработки инновационного уникального приложения для бизнеса? Обратите внимание на ChatGPT. Эта простая в использовании платформа предоставляет разработчикам ряд инструментов и возможностей. Здесь вы сможете создать приложение, соответствующее конкретным бизнес-потребностям.