我将介绍它,因为在使用 Linux Bash 脚本读取简单的 CSV 文件并对其进行处理时,它非常容易编写。
作为读取 CSV 文件并使用您经常看到的 Bash 脚本对其进行处理的方法,有一种描述是从标准输入中逐行读取 CSV 文件并使用 cut 命令将列存储在变量中。
hoge.sh 的内容
while read line
do
? # 保存 $line 行中读入的CSV文件的一行文本,通过cut命令分列保存在变量中。
? col1=$(echo ${line} | cut -d , -f 1)
? col2=$(echo ${line} | cut -d , -f 2)
? col3=$(echo ${line} | cut -d , -f 3)
? # 处理内容描述在这里
? # $colX 参考读入的 CSV 文件的文本
? echo “col1:$col1 col2:$col2 col3:$col3”
done < $1
csv文件的内容
a1,a2,a3
b1,b2,b3
c1,c2,c3
$
以 csv 文件作为参数执行脚本
col1:a1 col2:a2 col3:a3
col1:b1 col2:b2 col3:b3
col1:c1 col2:c2 col3:c3
$
通过将分隔符 IFS 的环境变量更改为,并在 read 命令中设置多个变量,可以在不使用 cut 命令的情况下进行简单的描述。
hoge.sh 的内容
?# 将读取的CSV文件的一行文本分列存储在多个变量中
while IFS=, read col1 col2 col3
do
? # 处理内容描述在这里
? # $colX 参考读入的 CSV 文件的文本
? echo “col1:$col1 col2:$col2 col3:$col3”
done < $1
您还可以使用 read 命令的 -a 选项将拆分列存储在数组中。
while IFS=, read -a col
do
? echo “col1:${col[0]} col2:${col[1]} col3:${col[2]}”
done < $1
这种方式是最推荐的,因为它是一个数组,所以很容易循环、添加、删除、处理分列,并且可以灵活的引用和使用变量扩展来展示。
while IFS=, read -a col
do
? for c in ${col[@]}
? do
? ? echo “loop:$c”
? done
? unset col[2]
? col+=(lastcol)
? echo “${col[@]}”
? echo “${col[@]:1}”
? echo “${col[@]/#/col:}”
done < $1
loop:a1
loop:a2
loop:a3
a1 a2 lastcol
a2 lastcol
col:a1 col:a2 col:lastcol
loop:b1
loop:b2
loop:b3
b1 b2 lastcol
b2 lastcol
col:b1 col:b2 col:lastcol
loop:c1
loop:c2
loop:c3
c1 c2 lastcol
c2 lastcol
col:c1 col:c2 col:lastcol
$
如果文件分隔符是空格分隔符(SSV)或制表符分隔符(TSV),则分隔符的环境变量IFS默认为空格、制表符和换行符,因此在脚本中不指定IFS进行处理.我可以的。
while read -a col
do
? echo “col1:${col[0]} col2:${col[1]} col3:${col[2]}”
done < $1
但是,如果该列为空,则将省略其前后连续的空格和制表符,并将变量位置打包在一起。
a1 a2 a3
b1 b3
c3
$
col1:a1 col2:a2 col3:a3
col1:b1 col2:b3 col3:
col1:c3 col2: col3:
$
为了防止这种情况,您需要用逗号替换空格和制表符,并将它们读入以逗号分隔的数组。
IFS=,
while read line
do
? col=(${line// /,})
? echo “col1:${col[0]} col2:${col[1]} col3:${col[2]}”
done < $1
IFS=,
while read line
do
? col=(${line//$’\t’/,})
? echo “col1:${col[0]} col2:${col[1]} col3:${col[2]}”
done < $1
如果您想以相反的顺序读取 CSV 文件,替换特定字符,然后读取它,您可以在读取 CSV 文件之前对其进行处理,方法是将进程替换的结果 <() 传递给标准输入。
while IFS=, read -a col
do
? echo “col1:${col[0]} col2:${col[1]} col3:${col[2]}”
done < <(tac $1)
a1,a2,a3
b1,b2,b3
c1,c2,c3
$
col1:c1 col2:c2 col3:c3
col1:b1 col2:b2 col3:b3
col1:a1 col2:a2 col3:a3
$
如果您想轻松处理或聚合 CSV 文件,使用 awk 命令处理它可能会更简单。
awk命令从头开始逐行读取指定为参数的文件,自动将分隔符分隔的内容存储在变量$1,$2…中,可以逐行描述要处理的内容。处理 CSV 文件时,需要在 -F 选项中指定逗号作为分隔符。
col1:a1 col2:a2 col3:a3
col1:b1 col2:b2 col3:b3
col1:c1 col2:c2 col3:c3
$
此外,如果处理内容变得复杂,则可以将处理内容描述在文件中作为脚本。
print “col1:”$1,”col2:”$2,”col3:”$3
}
col1:a1 col2:a2 col3:a3
col1:b1 col2:b2 col3:b3
col1:c1 col2:c2 col3:c3
$
如果文件分隔符是空格分隔 (SSV) 或制表符分隔 (TSV),则无需像 Bash 脚本那样指定选项即可读取,但由于变量位置已打包并存储,因此指定选项更安全。
col1:a1 col2:a2 col3:a3
col1:b1 col2: col3:b3
col1: col2: col3:c3
$
col1:a1 col2:a2 col3:a3
col1:b1 col2: col3:b3
col1: col2: col3:c3
$
awk 命令也是一个功能强大的命令,但是还有一种方法是使用 perl 命令来处理 CSV 文件,这种方法更加直观和复杂。
这是一个非常复杂的命令,默认包含在 Linux 服务器中,所以如果您有兴趣,可以使用它。
到此这篇关于使用Bash读取和处理CSV文件的方法的文章就介绍到这了,更多相关Bash读取和处理CSV内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!