Компромисс защиты товарного знака

Чтобы получить товарный знак, бренд должен быть уникальным и четко отличать свои товары и услуги от товаров и услуг своих конкурентов. Ведомства интеллектуальной собственности по всему миру используют систему классификации товарных знаков, которая группирует аналогичные продукты или услуги в 45 классов. Товары относятся к классам с 1 по 34, а услуги относятся к классам с 35 по 45. Каждый класс имеет общий заголовок, который дает общее объяснение того, что включено в класс, пояснительное примечание, описывающее, что включает и что не включает в себя этот класс, в частности и Алфавитный список конкретных продуктов или услуг.

Правильное определение товаров и услуг, которые вы намереваетесь связать с любым предлагаемым товарным знаком, имеет жизненно важное значение, поскольку объем охраны этого товарного знака применим только к конкретным международным классам, которые вы указываете и оплачиваете в своем заявлении, и это невозможно. добавить Товары или Услуги после подачи заявки.

Поскольку нет ограничений на количество товаров или услуг, которые могут быть включены в один класс, может возникнуть соблазн выбрать широкий диапазон. Однако это увеличивает вероятность того, что товарный знак будет оспорен другими или что он будет отозван из-за того, что он слишком похож на существующий товарный знак или не используется. Важно тщательно рассмотреть Товары и Услуги, включенные в заявку на товарный знак, чтобы избежать этих потенциальных проблем.

Задача выбора правильных классов и индикаций еще более усложняется тем фактом, что в настоящее время существует около 10 000 вариантов, определенных Системой классификации Ниццы.

Приговор-BERT на помощь

Sentence-BERT (SBERT) — это модель обработки естественного языка, которая была обучена с использованием техники представления двунаправленного кодировщика от преобразователей (BERT). SBERT предназначен для понимания и обработки предложений для повышения производительности задач обработки естественного языка, таких как классификация текста, анализ настроений и ответы на вопросы. SBERT использует комбинацию механизмов внутреннего внимания и преобразователей для изучения контекстных представлений слов в предложении, что позволяет улавливать смысл предложения в целом.

SBERT представляет целые предложения и их семантическую информацию в виде векторов. Вектор одного предложения можно сравнить с вектором другого с помощью таких показателей, как косинусное сходство: чем выше значение, тем более похожи предложения.

Выполнение

В нашем случае использования 10 000 заголовков Nice, пояснительных примечаний и точных классификаций векторизуются, и вычисляется косинусное сходство каждого вектора в матрице и векторизованного описания продукта (или услуги). Пользователю представляются классификации с наибольшим сходством.

#Load the necessary libraries
import pandas as pd
import numpy as np
from sentence_transformers import SentenceTransformer

#Define the Cosine Similarity function
def cosine(u, v):
    return np.dot(u, v) / (np.linalg.norm(u) * np.linalg.norm(v))

#Load the Nice classification data
ncl_all = pd.read_csv('consolidated_nice_classifications.csv', sep=',')

#Load the SBERT model
sbert_model = SentenceTransformer('all-MiniLM-L6-v2')

#Create the sentence embeddings for the Nice classifications
sentence_embeddings = sbert_model.encode(ncl_all['Desc'])

#Create the sentence embeddings for the example product description
#query = "A handbag is a medium-to-large bag typically used by women to hold personal items. It is often fashionably designed. Versions of the term are 'purse', 'pocketbook', 'pouch', or 'clutch', terms which suggest rather smaller versions."
#query = 'A protection, safety, and private security agency. We specialize in the areas of close protection, property and home security and event security.'
query = 'A Home appliance is any consumer-electronic machine use to complete some household task, such as cooking or cleaning. Home appliances can be classified into: Major appliances (or white goods) and Small appliances'
#query = 'ovens for laboratory use'
#query = 'computer game software for use on mobile and cellular telephones'
query_vec = sbert_model.encode([query])[0]

#Calculate the similarity of the product description to the Nice classifications
ncl_sim = []
for ncl in sentence_embeddings:
    ncl_sim.append(cosine(query_vec, ncl))

ncl_all['similarity'] = ncl_sim

#Display the top 20 matches
ncl_all.sort_values(by=['similarity'], ascending=False).head(20).style.set_properties(subset=['Desc'], **{'width-min': '50px'})

Используемый набор данных был объединен из различных файлов, найденных на веб-сайте ВОИС, и его можно загрузить отсюда: https://github.com/bricesh/ncl_recommender/blob/9e9b1b8feef60ba71d84956a78f152c157508c2b/data/consolidated_nice_classifications.csv

Мощь SBERT очевидна: «Бытовая техника — это любая бытовая электроника, используемая для выполнения какой-либо домашней работы, такой как приготовление пищи или уборка…» тесно связана с такими предложениями, как « электроприборы для приготовления йогурта, машины для выпечки хлеба, кофеварки, машины для приготовления мороженого» или «приборы для очистки с использованием пара» в его встроенном пространстве.

Если вы хотите продолжить изучение этой идеи, я написал более удобное приложение с использованием Streamlit: https://bricesh-ncl-recommender-app-dyz6y3.streamlit.app/

Отказ от ответственности

Эта работа представляет собой незавершенное академическое упражнение, не предназначенное для информирования о реальных решениях по подаче заявок. Процесс регистрации товарного знака может быть сложным и длительным. Настоятельно рекомендуется обратиться за советом к квалифицированному поверенному по товарным знакам, который проведет заявителя через процесс и обеспечит правильное оформление его заявки.

Полезные ссылки