Ответы:
Вы можете использовать glob
:
import glob, os
os.chdir("/mydir")
for file in glob.glob("*.txt"):
print(file)
или просто os.listdir
:
import os
for file in os.listdir("/mydir"):
if file.endswith(".txt"):
print(os.path.join("/mydir", file))
или если вы хотите просмотреть каталог, используйте os.walk
:
import os
for root, dirs, files in os.walk("/mydir"):
for file in files:
if file.endswith(".txt"):
print(os.path.join(root, file))
for file in f
чем для, for files in f
поскольку в переменной есть одно имя файла. Еще лучше было бы изменить , f
чтобы files
и тогда для петель может стать for file in files
.
file
это не зарезервированное слово, а просто имя предопределенной функции, поэтому вполне возможно использовать его в качестве имени переменной в вашем собственном коде. Хотя это правда, что обычно следует избегать подобных столкновений, file
это особый случай, потому что вряд ли когда-либо понадобится его использовать, поэтому его часто считают исключением из руководящих принципов. Если вы не хотите этого делать, PEP8 рекомендует добавить к таким именам единичное подчеркивание, т. Е. file_
, С которым вы согласитесь, все еще вполне читабельно.
Используйте шар .
>>> import glob
>>> glob.glob('./*.txt')
['./outline.txt', './pip-log.txt', './test.txt', './testingvim.txt']
glob
не можете найти файлы рекурсивно, если ваш питон меньше 3.5. больше информации
Нечто подобное должно делать работу
for root, dirs, files in os.walk(directory):
for file in files:
if file.endswith('.txt'):
print file
root, dirs, files
вместо r, d, f
. Гораздо более читабельно.
Примерно так будет работать
>>> import os
>>> path = '/usr/share/cups/charmaps'
>>> text_files = [f for f in os.listdir(path) if f.endswith('.txt')]
>>> text_files
['euc-cn.txt', 'euc-jp.txt', 'euc-kr.txt', 'euc-tw.txt', ... 'windows-950.txt']
os.path.join
на каждом элементе text_files
. Это может быть что-то вроде text_files = [os.path.join(path, f) for f in os.listdir(path) if f.endswith('.txt')]
.
Вы можете просто использовать pathlib
s 1 :glob
import pathlib
list(pathlib.Path('your_directory').glob('*.txt'))
или в цикле:
for txt_file in pathlib.Path('your_directory').glob('*.txt'):
# do something with "txt_file"
Если вы хотите, чтобы это было рекурсивно, вы можете использовать .glob('**/*.txt)
1pathlib
модуль был включен в стандартной библиотеке в Python 3.4. Но вы можете установить обратные порты этого модуля даже в старых версиях Python (например, используя conda
или pip
): pathlib
и pathlib2
.
**/*.txt
не поддерживается старыми версиями Python. Так что я решил это с: foundfiles= subprocess.check_output("ls **/*.txt", shell=True)
for foundfile in foundfiles.splitlines():
print foundfile
pathlib
можно сделать, и я уже включил требования к версии Python. :) Но если ваш подход еще не опубликован, почему бы просто не добавить его в качестве другого ответа?
rglob
если вы хотите искать элементы рекурсивно. Например.rglob('*.txt')
import os
path = 'mypath/path'
files = os.listdir(path)
files_txt = [i for i in files if i.endswith('.txt')]
Мне нравится os.walk () :
import os
for root, dirs, files in os.walk(dir):
for f in files:
if os.path.splitext(f)[1] == '.txt':
fullpath = os.path.join(root, f)
print(fullpath)
Или с генераторами:
import os
fileiter = (os.path.join(root, f)
for root, _, files in os.walk(dir)
for f in files)
txtfileiter = (f for f in fileiter if os.path.splitext(f)[1] == '.txt')
for txt in txtfileiter:
print(txt)
Вот больше версий того же самого, которые дают немного отличающиеся результаты:
import glob
for f in glob.iglob("/mydir/*/*.txt"): # generator, search immediate subdirectories
print f
print glob.glob1("/mydir", "*.tx?") # literal_directory, basename_pattern
import fnmatch, os
print fnmatch.filter(os.listdir("/mydir"), "*.tx?") # include dot-files
glob1()
это вспомогательная функция в glob
модуле, которого нет в документации по Python. Есть несколько встроенных комментариев, описывающих, что он делает в исходном файле, смотрите .../Lib/glob.py
.
glob.glob1()
не публично, но доступно на Python 2.4-2.7; 3.0-3.2; PyPy; jython github.com/zed/test_glob1
glob
модуля.
path.py является еще одной альтернативой: https://github.com/jaraco/path.py
from path import path
p = path('/path/to/the/directory')
for f in p.files(pattern='*.txt'):
print f
for f in p.walk(pattern='*.txt')
пройти через все подпапки
list(p.glob('**/*.py'))
Быстрый метод с использованием os.scandir в рекурсивной функции. Поиск всех файлов с указанным расширением в папке и подпапках.
import os
def findFilesInFolder(path, pathList, extension, subFolders = True):
""" Recursive function to find all files of an extension type in a folder (and optionally in all subfolders too)
path: Base directory to find files
pathList: A list that stores all paths
extension: File extension to find
subFolders: Bool. If True, find files in all subfolders under path. If False, only searches files in the specified folder
"""
try: # Trapping a OSError: File permissions problem I believe
for entry in os.scandir(path):
if entry.is_file() and entry.path.endswith(extension):
pathList.append(entry.path)
elif entry.is_dir() and subFolders: # if its a directory, then repeat process as a nested function
pathList = findFilesInFolder(entry.path, pathList, extension, subFolders)
except OSError:
print('Cannot access ' + path +'. Probably a permissions error')
return pathList
dir_name = r'J:\myDirectory'
extension = ".txt"
pathList = []
pathList = findFilesInFolder(dir_name, pathList, extension, True)
Если вы ищете в каталогах, которые содержат файлы 10 000, добавление в список становится неэффективным. «Сдача» результатов - лучшее решение. Я также включил функцию для преобразования выходных данных в Pandas Dataframe.
import os
import re
import pandas as pd
import numpy as np
def findFilesInFolderYield(path, extension, containsTxt='', subFolders = True, excludeText = ''):
""" Recursive function to find all files of an extension type in a folder (and optionally in all subfolders too)
path: Base directory to find files
extension: File extension to find. e.g. 'txt'. Regular expression. Or 'ls\d' to match ls1, ls2, ls3 etc
containsTxt: List of Strings, only finds file if it contains this text. Ignore if '' (or blank)
subFolders: Bool. If True, find files in all subfolders under path. If False, only searches files in the specified folder
excludeText: Text string. Ignore if ''. Will exclude if text string is in path.
"""
if type(containsTxt) == str: # if a string and not in a list
containsTxt = [containsTxt]
myregexobj = re.compile('\.' + extension + '$') # Makes sure the file extension is at the end and is preceded by a .
try: # Trapping a OSError or FileNotFoundError: File permissions problem I believe
for entry in os.scandir(path):
if entry.is_file() and myregexobj.search(entry.path): #
bools = [True for txt in containsTxt if txt in entry.path and (excludeText == '' or excludeText not in entry.path)]
if len(bools)== len(containsTxt):
yield entry.stat().st_size, entry.stat().st_atime_ns, entry.stat().st_mtime_ns, entry.stat().st_ctime_ns, entry.path
elif entry.is_dir() and subFolders: # if its a directory, then repeat process as a nested function
yield from findFilesInFolderYield(entry.path, extension, containsTxt, subFolders)
except OSError as ose:
print('Cannot access ' + path +'. Probably a permissions error ', ose)
except FileNotFoundError as fnf:
print(path +' not found ', fnf)
def findFilesInFolderYieldandGetDf(path, extension, containsTxt, subFolders = True, excludeText = ''):
""" Converts returned data from findFilesInFolderYield and creates and Pandas Dataframe.
Recursive function to find all files of an extension type in a folder (and optionally in all subfolders too)
path: Base directory to find files
extension: File extension to find. e.g. 'txt'. Regular expression. Or 'ls\d' to match ls1, ls2, ls3 etc
containsTxt: List of Strings, only finds file if it contains this text. Ignore if '' (or blank)
subFolders: Bool. If True, find files in all subfolders under path. If False, only searches files in the specified folder
excludeText: Text string. Ignore if ''. Will exclude if text string is in path.
"""
fileSizes, accessTimes, modificationTimes, creationTimes , paths = zip(*findFilesInFolderYield(path, extension, containsTxt, subFolders))
df = pd.DataFrame({
'FLS_File_Size':fileSizes,
'FLS_File_Access_Date':accessTimes,
'FLS_File_Modification_Date':np.array(modificationTimes).astype('timedelta64[ns]'),
'FLS_File_Creation_Date':creationTimes,
'FLS_File_PathName':paths,
})
df['FLS_File_Modification_Date'] = pd.to_datetime(df['FLS_File_Modification_Date'],infer_datetime_format=True)
df['FLS_File_Creation_Date'] = pd.to_datetime(df['FLS_File_Creation_Date'],infer_datetime_format=True)
df['FLS_File_Access_Date'] = pd.to_datetime(df['FLS_File_Access_Date'],infer_datetime_format=True)
return df
ext = 'txt' # regular expression
containsTxt=[]
path = 'C:\myFolder'
df = findFilesInFolderYieldandGetDf(path, ext, containsTxt, subFolders = True)
В Python есть все инструменты для этого:
import os
the_dir = 'the_dir_that_want_to_search_in'
all_txt_files = filter(lambda x: x.endswith('.txt'), os.listdir(the_dir))
all_txt_files = list(filter(lambda x: x.endswith('.txt'), os.listdir(the_dir)))
Попробуйте это, он найдет все ваши файлы рекурсивно:
import glob, os
os.chdir("H:\\wallpaper")# use whatever directory you want
#double\\ no single \
for file in glob.glob("**/*.txt", recursive = True):
print(file)
**
. Доступно только в Python 3. Что мне не нравится, так это chdir
часть. В этом нет необходимости.
filepath = os.path.join('wallpaper')
а затем использовать его как glob.glob(filepath+"**/*.psd", recursive = True)
, что даст тот же результат.
Я провел тест (Python 3.6.4, W7x64), чтобы выяснить, какое решение является самым быстрым для одной папки, без подкаталогов, чтобы получить список полных путей к файлам с определенным расширением.
Короче говоря, эта задача os.listdir()
является самой быстрой и в 1,7 раза быстрее следующей: os.walk()
(с перерывом!), В 2,7 pathlib
раза быстрее, в 3,2 раза быстрее os.scandir()
и в 3,3 раза быстрее glob
.
Помните, что эти результаты изменятся, когда вам понадобятся рекурсивные результаты. Если вы копируете / вставляете один метод ниже, пожалуйста, добавьте .lower (), иначе .EXT не будет найден при поиске .ext.
import os
import pathlib
import timeit
import glob
def a():
path = pathlib.Path().cwd()
list_sqlite_files = [str(f) for f in path.glob("*.sqlite")]
def b():
path = os.getcwd()
list_sqlite_files = [f.path for f in os.scandir(path) if os.path.splitext(f)[1] == ".sqlite"]
def c():
path = os.getcwd()
list_sqlite_files = [os.path.join(path, f) for f in os.listdir(path) if f.endswith(".sqlite")]
def d():
path = os.getcwd()
os.chdir(path)
list_sqlite_files = [os.path.join(path, f) for f in glob.glob("*.sqlite")]
def e():
path = os.getcwd()
list_sqlite_files = [os.path.join(path, f) for f in glob.glob1(str(path), "*.sqlite")]
def f():
path = os.getcwd()
list_sqlite_files = []
for root, dirs, files in os.walk(path):
for file in files:
if file.endswith(".sqlite"):
list_sqlite_files.append( os.path.join(root, file) )
break
print(timeit.timeit(a, number=1000))
print(timeit.timeit(b, number=1000))
print(timeit.timeit(c, number=1000))
print(timeit.timeit(d, number=1000))
print(timeit.timeit(e, number=1000))
print(timeit.timeit(f, number=1000))
Результаты:
# Python 3.6.4
0.431
0.515
0.161
0.548
0.537
0.274
Этот код делает мою жизнь проще.
import os
fnames = ([file for root, dirs, files in os.walk(dir)
for file in files
if file.endswith('.txt') #or file.endswith('.png') or file.endswith('.pdf')
])
for fname in fnames: print(fname)
Используйте fnmatch: https://docs.python.org/2/library/fnmatch.html.
import fnmatch
import os
for file in os.listdir('.'):
if fnmatch.fnmatch(file, '*.txt'):
print file
Чтобы получить массив имен файлов «.txt» из папки «data» в том же каталоге, я обычно использую эту простую строку кода:
import os
fileNames = [fileName for fileName in os.listdir("data") if fileName.endswith(".txt")]
Я предлагаю вам использовать fnmatch и верхний метод. Таким образом, вы можете найти любое из следующего:
,
import fnmatch
import os
for file in os.listdir("/Users/Johnny/Desktop/MyTXTfolder"):
if fnmatch.fnmatch(file.upper(), '*.TXT'):
print(file)
Функциональное решение с подкаталогами:
from fnmatch import filter
from functools import partial
from itertools import chain
from os import path, walk
print(*chain(*(map(partial(path.join, root), filter(filenames, "*.txt")) for root, _, filenames in walk("mydir"))))
Если папка содержит много файлов или память является ограничением, рассмотрите возможность использования генераторов:
def yield_files_with_extensions(folder_path, file_extension):
for _, _, files in os.walk(folder_path):
for file in files:
if file.endswith(file_extension):
yield file
Вариант А: итерация
for f in yield_files_with_extensions('.', '.txt'):
print(f)
Вариант Б: Получить все
files = [f for f in yield_files_with_extensions('.', '.txt')]
Копируемое решение, похожее на ghostdog:
def get_all_filepaths(root_path, ext):
"""
Search all files which have a given extension within root_path.
This ignores the case of the extension and searches subdirectories, too.
Parameters
----------
root_path : str
ext : str
Returns
-------
list of str
Examples
--------
>>> get_all_filepaths('/run', '.lock')
['/run/unattended-upgrades.lock',
'/run/mlocate.daily.lock',
'/run/xtables.lock',
'/run/mysqld/mysqld.sock.lock',
'/run/postgresql/.s.PGSQL.5432.lock',
'/run/network/.ifstate.lock',
'/run/lock/asound.state.lock']
"""
import os
all_files = []
for root, dirs, files in os.walk(root_path):
for filename in files:
if filename.lower().endswith(ext):
all_files.append(os.path.join(root, filename))
return all_files
используйте модуль Python OS для поиска файлов с определенным расширением.
простой пример здесь:
import os
# This is the path where you want to search
path = r'd:'
# this is extension you want to detect
extension = '.txt' # this can be : .jpg .png .xls .log .....
for root, dirs_list, files_list in os.walk(path):
for file_name in files_list:
if os.path.splitext(file_name)[-1] == extension:
file_name_path = os.path.join(root, file_name)
print file_name
print file_name_path # This is the full path of the filter file
Многие пользователи ответили os.walk
ответами, которые включают все файлы, но также все каталоги и подкаталоги и их файлы.
import os
def files_in_dir(path, extension=''):
"""
Generator: yields all of the files in <path> ending with
<extension>
\param path Absolute or relative path to inspect,
\param extension [optional] Only yield files matching this,
\yield [filenames]
"""
for _, dirs, files in os.walk(path):
dirs[:] = [] # do not recurse directories.
yield from [f for f in files if f.endswith(extension)]
# Example: print all the .py files in './python'
for filename in files_in_dir('./python', '*.py'):
print("-", filename)
Или для одного, где вам не нужен генератор:
path, ext = "./python", ext = ".py"
for _, _, dirfiles in os.walk(path):
matches = (f for f in dirfiles if f.endswith(ext))
break
for filename in matches:
print("-", filename)
Если вы собираетесь использовать совпадения для чего-то другого, вы можете сделать это списком, а не выражением генератора:
matches = [f for f in dirfiles if f.endswith(ext)]
Простой метод с использованием for
цикла:
import os
dir = ["e","x","e"]
p = os.listdir('E:') #path
for n in range(len(p)):
name = p[n]
myfile = [name[-3],name[-2],name[-1]] #for .txt
if myfile == dir :
print(name)
else:
print("nops")
Хотя это можно сделать более обобщенно.