Можно сказать, что существует 3 основных компонента системы когнитивных вычислений:

1. Способ интерпретации ввода. Система когнитивных вычислений должна ответить на вопрос или предоставить результат на основе ввода. Этот ввод может быть поисковым запросом, текстовой фразой, запросом на естественном языке или может быть ответом на какое-либо действие (например, закупка продукта).

Первое, что необходимо сделать системе, это понять контекст сигнала. Примеры: местоположение, скорость движения (в случае персональных помощников для смартфонов, в иллюстративных целях). Такая контекстная информация позволит системе сузить потенциальные ответы до более подходящих. Когнитивные вычислительные системы должны с чего-то начинать - им нужно «знать» или ожидать чего-то от пользователя, чтобы интерпретировать ввод. Чем больше контекстных подсказок может быть получено, определено или подразумеваемым, тем легче будет сузить соответствующие типы информации, которая должна быть возвращена.

2. Контент / информация, поддерживающая решение: цель когнитивных вычислений - помочь людям делать выбор и решать проблемы. Но система не дает ответа. Даже синтез новых знаний основан на фундаментальных знаниях.

«корпус» или область информации является ключевым компонентом когнитивной вычислительной системы. Чем эффективнее курируется эта информация, тем лучше конечные результаты. Мы говорим об управлении знаниями / контентом. 101. Структуры знаний важны, требуются таксономии и метаданные, а также требуется некоторая форма информационной гигиены.

Ценные знания и информация можно сделать более доступными и пригодными для использования с помощью систем когнитивных вычислений, но качество таких базовых знаний имеет важное значение для успеха приложения. Чтобы создать когнитивную систему, необходимы организационные структуры для контента, которые придают смысл довольно неструктурированному контенту.

IBM Watson, например, принимает множество структурированных (а также частично структурированных) репозиториев информации: словари, новостные статьи и базы данных, таксономии и онтологии (например, Wordnet, DBpedia ...). Эти источники предоставляют информацию, необходимую для ответов на вопросы, формирование корпуса информации, на которую опирается Watson.

Это первоначальное моделирование требует затрат времени и опыта для создания базовых элементов, на основе которых система может затем синтезировать ответы. Каждое из этих действий требует моделирования контента и структур метаданных, сценариев использования (поддерживаемых подходом взаимодействия с клиентами).

3. Способ обработки сигнала по корпусу содержимого / информации: здесь, например, вступает в игру машинное обучение. ML давно применяется для категоризации и классификации, а также для расширенной аналитики текста. Обработка может быть в форме алгоритма запроса / сопоставления или может включать другие механизмы для интерпретации запроса, его преобразования, уменьшения неоднозначности, получения синтаксиса, определения смысла слова, вывода логических взаимосвязей или иного анализа / обработки сигнала по корпус.

Машинное обучение имеет множество разновидностей - от различных типов подходов к обучению с учителем (когда известная выборка или результат используется для указания системе, что искать) до классов подходов без учителя (когда системе просто предлагается идентифицировать / формы шаблонов и выбросов) - и даже комбинации этих подходов на разных этапах процесса. (подход к обучению без учителя может, например, выявить скрытые структуры, чтобы результат можно было применить в качестве обучающего набора к другим источникам данных).

Ключевым моментом здесь является итеративное улучшение производительности системы с течением времени, аппроксимируя выходные данные и используя их в качестве входных данных для следующего раунда обработки. В некоторых случаях неправильные ответы (по мнению человека или другого источника данных) могут быть введены в следующий раз, когда система столкнется с проблемой или вопросом.

Эти 3 компонента механизмов когнитивных вычислений можно разбить на довольно широкую комбинацию методов алгоритмов. Системы когнитивных вычислений обладают дополнительными характеристиками, которые здесь не показаны для простоты, однако большинство этих характеристик относятся к одному из этих широких классов функциональности.

В конце концов, когнитивные вычисления будут все больше входить в нашу повседневную жизнь и переходить в другие системы и процессы, точно так же, как сегодня смартфоны и Интернет являются частью нашего мира.

Давайте углубимся немного глубже и рассмотрим некоторые части, из которых состоят такие компоненты.

  • Инфраструктура → Должна поддерживаться сильно распараллеленная и распределенная среда, включая облачные сервисы вычислений и хранения.
  • Доступ к данным, метаданные и службы управления → Использование полученных данных требует понимания происхождения и происхождения этих данных и, как такового, способа классификации характеристик этих данных (например, когда этот текст или источник данных был создан, кем и т. д.), которые, кстати, не статичны. В корпус будут включены различные внутренние и внешние источники данных, что потребует также набора управленческих служб, которые подготавливают данные для использования в корпусе (т.е. данные должны проверяться, очищаться, проверяться на точность, ..).
  • Корпус, таксономии и каталоги данныхКорпус - это база знаний полученных данных, которая используется для управления зашифрованными знаниями. Такие данные в основном основаны на тексте (документы, учебники, заметки пациентов, отчеты клиентов и т. Д.), Но в настоящее время поддерживаются также неструктурированные и полуструктурированные данные (например, видео, изображения, звуки). Кроме того, корпус может включать онтологии, которые определяют сущности и их отношения (довольно часто требуется использовать подмножество отраслевой онтологии, чтобы включить только те данные, которые относится к фокусу когнитивной системы). Таксономия обеспечивает контекст внутри онтологии.
  • Службы анализа данных → это методы, используемые для развития понимания данных, получаемых и управляемых в корпусе. Для разработки модели когнитивной системы применяется набор передовых алгоритмов. Процедура непрерывного машинного обучения, охватываемая когнитивными системами, обычно включает два набора динамики: (а) генерация гипотез и (б) оценка гипотез. Гипотеза - это проверяемое утверждение, основанное на доказательствах, объясняющих некоторые наблюдаемые явления; цель здесь - найти доказательства, подтверждающие (или опровергающие) гипотезы, обычно это достигается посредством итеративного процесса обучения данных.

Инструменты являются основным условием обучения на основе данных путем их обработки как в структурированной, так и в неструктурированной форме. Для неструктурированных текстовых данных службы NLP (обработка естественного языка) могут интерпретировать и обнаруживать шаблоны для поддержки когнитивной системы. Для неструктурированных данных, таких как изображения, видео и звук, требуются инструменты DL (Deep Learning).

  • Визуализация данных → И последнее, но не менее важное: результаты и результаты должны быть представлены визуально, чтобы облегчить понимание рекомендаций / выводов. Шаблоны и отношения в данных легче идентифицировать и понимать, если их визуализировать со структурой, цветом и т. Д.

Вдобавок ко всему, когнитивная система должна использовать все эти базовые возможности, чтобы создавать приложения, которые решают бизнес-задачи в вертикальных областях. Эти приложения могут потребовать внедрения процессов, чтобы получить представление о сложном бизнесе (например, здравоохранение, логистика, профилактическое обслуживание и т. Д.). Он должен предоставлять пользователям понимание, чтобы они могли принимать более обоснованные решения на основе данных, которые существуют, но не являются легкодоступными.