Как использовать «:» в качестве разделителя полей awk?


243

Дана следующая команда:

echo "1: " | awk '/1/ -F ":" {print $1}'

почему вывод awk:

1: 

Ответы:


382

«-F» - это аргумент командной строки, а не синтаксис awk, попробуйте:

 echo "1: " | awk -F  ":" '/1/ {print $1}'

42
Вопрос Игнорирования здесь: часть / 1 / должна сказать awk только для обработки строк (или записей, если быть более точным), которые содержат число 1, верно?
Рантс

3
Синтаксис @rantsh Awk выглядит следующим образом (pattern){action}. Если pattern(в основном условный оператор) имеет значение true , actionвыполняется. Если patternне доступно, trueподразумевается. Вот то pattern, /1/какие состояния соответствуют регулярному выражению 1в текущей записи$0
kvantour

62

Если вы хотите сделать это программно, вы можете использовать FSпеременную:

echo "1: " | awk 'BEGIN { FS=":" } /1/ { print $1 }'

Обратите внимание, что если вы измените его в основном цикле, а не в BEGINцикле, это повлияет на следующую прочитанную строку, поскольку текущая строка уже разбита.


35

У вас есть несколько способов установить в :качестве разделителя:

awk -F: '{print $1}'

awk -v FS=: '{print $1}'

awk '{print $1}' FS=:

awk 'BEGIN{FS=":"} {print $1}'

Все они эквивалентны и для возврата вернутся 1для примера ввода «1: 2: 3»:

$ awk -F: '{print $1}' <<< "1:2:3"
1
$ awk -v FS=: '{print $1}' <<< "1:2:3"
1
$ awk '{print $1}' FS=: <<< "1:2:3"
1
$ awk 'BEGIN{FS=":"} {print $1}' <<< "1:2:3"
1

какой предпочтительный способ? Я предполагаю, что последний пример с BEGINутверждением будет наиболее правильным (в соответствии с общим awkсинтаксисом).

1
@ randomware все они в порядке. Я имею тенденцию использовать, BEGINесли я использую файл, чтобы сохранить все это, в то время как -Fпригодится с однострочниками.
Федорки 'ТАК прекрати вредить'

1
Надо сказать, что между третьим случаем и всеми остальными существуют тонкие различия. Пример: awk 'BEGIN{print split("foo:bar",a)}' FS=":" fileиawk 'BEGIN{FS=":"; print split("foo:bar",a)}' file
kvantour



6

Вы также можете использовать регулярное выражение в качестве разделителя полей, ниже будет напечатано «bar» с помощью регулярного выражения для установки числа «10» в качестве разделителя.

echo "foo 10 bar" | awk -F'[0-9][0-9]' '{print $2}'

4

Не нужно так много писать. Просто поместите желаемый разделитель полей с опцией -F в команду awk и номер столбца, который вы хотите распечатать отдельно, в соответствии с указанным разделителем полей.

echo "1: " | awk -F: '{print $1}'    
1

echo "1#2" | awk -F# '{print $1}'  
1

4

AWK работает как текстовый интерпретатор, который действует одинаково для всего документа и действует по полю для каждой строки, поэтому $ 1, $ 2 .. $ n являются ссылками на поля каждой строки ($ 1 - первое поле, $ 2 - второе поле и т. Д. ...). Вы можете определить разделитель полей, используя переключатель «-F» в командной строке или в двух скобках с «FS = ...». Теперь рассмотрим ответ «JUERGEN»:

echo "1: " | awk -F  ":" '/1/ {print $1}'

Над полями установлены границы «:», поэтому у нас есть два поля $ 1, которое равно «1», и $ 2, которое является пустым пространством. После этого появляется регулярное выражение «/ 1 /», которое инструктирует фильтр выводить только первое поле когда переводчик натыкается на строку, содержащую такое выражение (я имею в виду 1); Вывод команды "echo" - это одна строка, содержащая "1", поэтому фильтр будет работать ...

При работе со следующим примером:

echo "1: " | awk '/1/ -F ":" {print $1}'

Синтаксис грязный, и интерпретатор решил игнорировать часть F ":" и переключается на разделитель полей по умолчанию, который является пустым пространством, таким образом, выводя "1:" в качестве первого поля, и второго поля не будет!

Ответ JUERGEN содержит хороший синтаксис ...


3

Или вы можете использовать:

echo "1: " | awk  '/1/{print $1-":"}' 

Это действительно забавное уравнение.


1
что /1/значит?

Найдите образец. В этом случае «1»
Хосе Диас
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.