Мне нужно найти частоту элементов в неупорядоченном списке
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
output->
b = [4,4,2,1,2]
Также я хочу удалить дубликаты из
a = [1,2,3,4,5]
Мне нужно найти частоту элементов в неупорядоченном списке
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
output->
b = [4,4,2,1,2]
Также я хочу удалить дубликаты из
a = [1,2,3,4,5]
Ответы:
Примечание: вы должны отсортировать список перед использованием groupby
.
Вы можете использовать groupby
из itertools
пакета, если список является упорядоченным списком.
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
from itertools import groupby
[len(list(group)) for key, group in groupby(a)]
Вывод:
[4, 4, 2, 1, 2]
groupby
. Интересно, насколько он эффективен по сравнению с политическим подходом
sum(1 for _ in group)
.
[(key, len(list(group))) for key, group in groupby(a)]
или {key: len(list(group)) for key, group in groupby(a)}
@buhtz
В Python 2.7 (или новее) вы можете использовать collections.Counter
:
import collections
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
counter=collections.Counter(a)
print(counter)
# Counter({1: 4, 2: 4, 3: 2, 5: 2, 4: 1})
print(counter.values())
# [4, 4, 2, 1, 2]
print(counter.keys())
# [1, 2, 3, 4, 5]
print(counter.most_common(3))
# [(1, 4), (2, 4), (3, 2)]
Если вы используете Python 2.6 или старше, вы можете скачать его здесь .
collections.Counter
это подкласс dict
. Вы можете использовать его так же, как и обычный диктат. Если вы действительно хотите диктовку, вы можете преобразовать ее в диктовку, используя dict(counter)
.
Python 2.7+ вводит понимание словаря. Сборка словаря из списка позволит вам подсчитать и избавиться от дубликатов.
>>> a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>> d = {x:a.count(x) for x in a}
>>> d
{1: 4, 2: 4, 3: 2, 4: 1, 5: 2}
>>> a, b = d.keys(), d.values()
>>> a
[1, 2, 3, 4, 5]
>>> b
[4, 4, 2, 1, 2]
{x:a.count(x) for x in set(a)}
a.count()
делает полный ход для каждого элемента в a
, делая это O (N ^ 2) квадрадическим подходом. collections.Counter()
является гораздо более эффективным , поскольку он рассчитывает линейное время (O (N)). В цифрах это означает, что этот подход будет выполнять 1 миллион шагов для списка длиной 1000, а не только 1000 шагов с Counter()
, 10 ^ 12 шагов, где счетчику требуется только 10 ^ 6 для миллиона элементов в списке и т. Д.
a.count()
полностью снижает эффективность использования набора.
Для подсчета количества появлений:
from collections import defaultdict
appearances = defaultdict(int)
for curr in a:
appearances[curr] += 1
Чтобы удалить дубликаты:
a = set(a)
Counter
может использовать несколько числовых типов, включая float
или Decimal
не только int
.
В Python 2.7+ вы можете использовать коллекции. Счетчик для подсчета предметов
>>> a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>>
>>> from collections import Counter
>>> c=Counter(a)
>>>
>>> c.values()
[4, 4, 2, 1, 2]
>>>
>>> c.keys()
[1, 2, 3, 4, 5]
Подсчет частоты элементов, вероятно, лучше всего сделать с помощью словаря:
b = {}
for item in a:
b[item] = b.get(item, 0) + 1
Чтобы удалить дубликаты, используйте набор:
a = list(set(a))
defaultdict
.
b = {k:0 for k in a}
?
Вот еще одна альтернатива succint, itertools.groupby
которая также работает для неупорядоченного ввода:
from itertools import groupby
items = [5, 1, 1, 2, 2, 1, 1, 2, 2, 3, 4, 3, 5]
results = {value: len(list(freq)) for value, freq in groupby(sorted(items))}
полученные результаты
{1: 4, 2: 4, 3: 2, 4: 1, 5: 2}
Ты можешь сделать это:
import numpy as np
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
np.unique(a, return_counts=True)
Вывод:
(array([1, 2, 3, 4, 5]), array([4, 4, 2, 1, 2], dtype=int64))
Первый массив - это значения, а второй - количество элементов с этими значениями.
Так что если вы хотите получить массив с числами, вы должны использовать это:
np.unique(a, return_counts=True)[1]
from collections import Counter
a=["E","D","C","G","B","A","B","F","D","D","C","A","G","A","C","B","F","C","B"]
counter=Counter(a)
kk=[list(counter.keys()),list(counter.values())]
pd.DataFrame(np.array(kk).T, columns=['Letter','Count'])
seta = set(a)
b = [a.count(el) for el in seta]
a = list(seta) #Only if you really want it.
count
смехотворно дорого и неуместно в этом сценарии.
Я бы просто использовал scipy.stats.itemfreq следующим образом:
from scipy.stats import itemfreq
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
freq = itemfreq(a)
a = freq[:,0]
b = freq[:,1]
вы можете проверить документацию здесь: http://docs.scipy.org/doc/scipy-0.16.0/reference/generated/scipy.stats.itemfreq.html
def frequencyDistribution(data):
return {i: data.count(i) for i in data}
print frequencyDistribution([1,2,3,4])
...
{1: 1, 2: 1, 3: 1, 4: 1} # originalNumber: count
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
# 1. Get counts and store in another list
output = []
for i in set(a):
output.append(a.count(i))
print(output)
# 2. Remove duplicates using set constructor
a = list(set(a))
print(a)
Вывод
D:\MLrec\venv\Scripts\python.exe D:/MLrec/listgroup.py
[4, 4, 2, 1, 2]
[1, 2, 3, 4, 5]
Простое решение с использованием словаря.
def frequency(l):
d = {}
for i in l:
if i in d.keys():
d[i] += 1
else:
d[i] = 1
for k, v in d.iteritems():
if v ==max (d.values()):
return k,d.keys()
print(frequency([10,10,10,10,20,20,20,20,40,40,50,50,30]))
max(d.values())
не изменится в последнем цикле. Не вычисляйте это в цикле, вычисляйте это перед циклом.
#!usr/bin/python
def frq(words):
freq = {}
for w in words:
if w in freq:
freq[w] = freq.get(w)+1
else:
freq[w] =1
return freq
fp = open("poem","r")
list = fp.read()
fp.close()
input = list.split()
print input
d = frq(input)
print "frequency of input\n: "
print d
fp1 = open("output.txt","w+")
for k,v in d.items():
fp1.write(str(k)+':'+str(v)+"\n")
fp1.close()
num=[3,2,3,5,5,3,7,6,4,6,7,2]
print ('\nelements are:\t',num)
count_dict={}
for elements in num:
count_dict[elements]=num.count(elements)
print ('\nfrequency:\t',count_dict)
from collections import OrderedDict
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
def get_count(lists):
dictionary = OrderedDict()
for val in lists:
dictionary.setdefault(val,[]).append(1)
return [sum(val) for val in dictionary.values()]
print(get_count(a))
>>>[4, 4, 2, 1, 2]
Чтобы удалить дубликаты и сохранить порядок:
list(dict.fromkeys(get_count(a)))
>>>[4, 2, 1]
Я использую счетчик для генерации частоты. из слов текстового файла в одной строке кода
def _fileIndex(fh):
''' create a dict using Counter of a
flat list of words (re.findall(re.compile(r"[a-zA-Z]+"), lines)) in (lines in file->for lines in fh)
'''
return Counter(
[wrd.lower() for wrdList in
[words for words in
[re.findall(re.compile(r'[a-zA-Z]+'), lines) for lines in fh]]
for wrd in wrdList])
Это еще один подход, хотя и с использованием более тяжелой, но мощной библиотеки - NLTK.
import nltk
fdist = nltk.FreqDist(a)
fdist.values()
fdist.most_common()
Еще одно решение с другим алгоритмом без использования коллекций:
def countFreq(A):
n=len(A)
count=[0]*n # Create a new list initialized with '0'
for i in range(n):
count[A[i]]+= 1 # increase occurrence for value A[i]
return [x for x in count if x] # return non-zero count
Вы можете использовать встроенную функцию, представленную в Python
l.count(l[i])
d=[]
for i in range(len(l)):
if l[i] not in d:
d.append(l[i])
print(l.count(l[i])
Приведенный выше код автоматически удаляет дубликаты в списке, а также печатает частоту каждого элемента в исходном списке и список без дубликатов.
Две птицы за один выстрел! XD
Этот подход можно попробовать, если вы не хотите использовать какую-либо библиотеку и делать ее простой и короткой!
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
marked = []
b = [(a.count(i), marked.append(i))[0] for i in a if i not in marked]
print(b)
о / р
[4, 4, 2, 1, 2]
Для записи, функциональный ответ:
>>> L = [1,1,1,1,2,2,2,2,3,3,4,5,5]
>>> import functools
>>> >>> functools.reduce(lambda acc, e: [v+(i==e) for i, v in enumerate(acc,1)] if e<=len(acc) else acc+[0 for _ in range(e-len(acc)-1)]+[1], L, [])
[4, 4, 2, 1, 2]
Будет чище, если считать нули тоже:
>>> functools.reduce(lambda acc, e: [v+(i==e) for i, v in enumerate(acc)] if e<len(acc) else acc+[0 for _ in range(e-len(acc))]+[1], L, [])
[0, 4, 4, 2, 1, 2]
Объяснение:
acc
списка;e
из L
ниже , чем размер acc
, мы просто обновить этот элемент: v+(i==e)
средства , v+1
если индекс i
в acc
это текущий элемент e
, в противном случае предыдущее значениеv
;e
из L
больше или равен размеру acc
, мы должны расширить acc
для размещения нового 1
.Элементы не должны быть отсортированы ( itertools.groupby
). Вы получите странные результаты, если у вас есть отрицательные числа.
Нашел другой способ сделать это, используя наборы.
#ar is the list of elements
#convert ar to set to get unique elements
sock_set = set(ar)
#create dictionary of frequency of socks
sock_dict = {}
for sock in sock_set:
sock_dict[sock] = ar.count(sock)
Чтобы найти уникальные элементы в списке
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
a = list(set(a))
Чтобы найти количество уникальных элементов в отсортированном массиве, используя словарь
def CountFrequency(my_list):
# Creating an empty dictionary
freq = {}
for item in my_list:
if (item in freq):
freq[item] += 1
else:
freq[item] = 1
for key, value in freq.items():
print ("% d : % d"%(key, value))
# Driver function
if __name__ == "__main__":
my_list =[1, 1, 1, 5, 5, 3, 1, 3, 3, 1, 4, 4, 4, 2, 2, 2, 2]
CountFrequency(my_list)
Справочник GeeksforGeeks
Еще один способ - использовать словарь и list.count, ниже наивного способа сделать это.
dicio = dict()
a = [1,1,1,1,2,2,2,2,3,3,4,5,5]
b = list()
c = list()
for i in a:
if i in dicio: continue
else:
dicio[i] = a.count(i)
b.append(a.count(i))
c.append(i)
print (b)
print (c)