Помощь      Поиск      Участники      Календарь      Новости
 Учебные Материалы      ВАЛтест     Фотогалерея Фотогалерея
 Правила форума      Виртуальные тренажеры      Мемуары


VAL

Статистика активности
Всего полезных сообщений 25835
( 61.35% всех сообщений форума )
Сообщений в день 5.2
Регистрация 6.03.2004
Наибольшая активность в Мужской хор МИФИ
703 сообщений в этом форуме
( 3% всех активных сообщений пользователя )
Часовой пояс пользователя Нет информации
Связь
E-mail Отправить
Integrity Messenger Нет информации
Имя в AIM Нет информации
Номер ICQ Нет информации
Имя в Yahoo Нет информации
Имя в MSN Нет информации
Личное письмо Отправить
Информация
Вебсайт http://www.valinfo.ru
Дата рождения 28 Январь 1952
Место жительства www.VALinfo.ru
Увлечения Рыбалка, путешествия, пение под гитару и в мужском хоре, не расстаюсь с фотоаппаратом и видеокамерой, собираю стихи о любви и пивные наклейки, пивные кружки и оригинальные авторучки, монеты и купюры разных стран, общение со студентами и умными женщинами.
Личные данные
Группа Администраторы
Статус Мэтр, проФАН любви... proFAN of love
Аватар
Подпись www.valinfo.ru
Всегда... Always....
Quod licet jovi, non licet bovi!
10 последних сообщений пользователя VAL
Важные понятия и терминология в области искусственной памяти [ Фильтр Блума (Википедия) ]
Фильтр Блума (Википедия)
Источник: https://ru.wikipedia.org/wiki/%D0%A4%D0%B8%...%83%D0%BC%D0%B0

QUOTE
Фильтр Блума (англ. Bloom filter) — это вероятностная структура данных, придуманная Бёртоном Блумом в 1970 году[1], позволяющая проверять принадлежность элемента к множеству. При этом существует возможность получить ложноположительное срабатывание (элемента в множестве нет, но структура данных сообщает, что он есть), но не ложноотрицательное.

Фильтр Блума может использовать любой объём памяти, заранее заданный пользователем, причём чем он больше, тем меньше вероятность ложного срабатывания. Поддерживается операция добавления новых элементов в множество, но не удаления существующих (если только не используется модификация со счётчиками).
Одноклассники и друзья в контакте [ Дела на год: от студента до пенсионера ]
doh.gif
Сферичность по-профессорски [ Встречаются два сферических коня в вакууме ]
doh.gif
МИФИ в анекдотах, байках, песнях [ (2017) Общага МИФИ – дом родной! ]
doh.gif
МозгоБЛУДие [ В помощь сочинителю ]
doh.gif
МозгоБЛУДие [ Горячая весна 2015. О будущей войне против России ]
doh.gif
Важные понятия и терминология в области искусственной памяти [ Difference between content-addressable memory and ]
Difference between content-addressable memory and associative memory
Источник: https://cogsci.stackexchange.com/questions/...ociative-memory

QUOTE

Often when I'm reading theoretical neuroscience publications, such as "Towards an integration of deep learning and neuroscience", as well as "Memory and the Computational Brain", theorists often mention the importance of content-addressable memories. They are defined as follows in the former publication:

    Content addressable memories are classic models in neuroscience. Most simply, they allow us to recognize a situation similar to one that we have seen before, and to “fill in” stored patterns based on partial or noisy information, but they may also be put to use as sub-components of many other functions.

Is the Associative Memory often used in SPA-based models, such as the model used in "Biologically Plausible, Human-Scale Knowledge Representation", the same thing as a content-addressable memories?


Answer:
QUOTE

    Content-addressable memory (CAM) is a special type of computer memory used in certain very-high-speed searching applications. It is also known as associative memory, associative storage, or associative array [...] It compares input search data (tag) against a table of stored data, and returns the address of matching data (or in the case of associative memory, the matching data)

As noted in the above question, there are many implementations of content-addressable memories in neural networks, such as the Hamming network and Hopfield networks. The Associative Memory used in SPA-based models performs the same function as these aforementioned networks and the Wikipedia description. Given a SPA vector as input, the Associative Memory outputs the corresponding vector as an output. Thus,the SPA-based Associative Memory is a content-addressable memory.
Советы, пожелания и предложения [ 10 советов для тех, кто пользуется Gmail ]
doh.gif
Протестируй себя! [ Тест - знаки зодиака в стихах ]
doh.gif
Протестируй себя! [ Тест о счастье студента. Пивной... ]
doh.gif