Hive完整函数参考指南与实践

本文还有配套的精品资源,点击获取

menu-r.4af5f7ec.gif

简介:Hive是一个基于Hadoop的大数据仓库工具,支持通过类SQL语言HQL处理存储在HDFS中的大规模数据集。本文全面介绍Hive的内置函数,包括数据类型、算术、比较、逻辑、转换、字符串、数值、日期、聚合、分桶、分组、窗口、连接、子查询、分区以及用户自定义函数(UDF、UDAF、UDTF)等,旨在帮助用户高效地分析和管理大数据。

hive 函数大全

1. Hive数据类型与函数概述

数据类型与函数是任何数据库管理系统的基础。在Hive中,数据类型决定了数据的存储方式以及操作的范围和限制,而函数则为处理数据提供了强大的工具。本章节将带您简要了解Hive中数据类型的基本分类以及内置函数的基本概念,为进一步深入学习和使用Hive打下坚实的基础。

Hive数据类型

Hive的数据类型分为基本数据类型和复杂数据类型。基本数据类型包括数值型、布尔型、日期和时间类型、字符串类型等,它们是构建更复杂数据结构的基石。复杂数据类型如数组(Array)、映射(Map)、结构体(Struct)以及联合体(Union),提供了数据集合和复杂数据表示的方式,极大地丰富了数据处理的灵活性。

Hive函数

Hive内置了丰富的函数来支持各种数据处理需求。从基本的算术计算到复杂的条件判断,从字符串操作到数值处理,从日期时间操作到聚合计算,Hive的函数库都能提供相应的解决方案。掌握这些函数不仅可以提高查询效率,还能增强数据处理的深度和广度。在接下来的章节中,我们将详细探讨这些函数的使用方法和应用场景。

2. Hive内置函数详解

2.1 Hive内置算术函数

2.1.1 常用算术运算符和函数

Hive支持广泛的算术运算符和函数来执行基本的数学运算。基本的算术运算包括加法(+), 减法(-), 乘法(*), 除法(/) 和 取余(%). 这些运算符被广泛用于转换、计算和数据处理过程中。

示例代码:

-- 加法运算 SELECT 1 + 2; -- 减法运算 SELECT 100 - 1; -- 乘法运算 SELECT 5 * 5; -- 除法运算 SELECT 10 / 2; -- 取余运算 SELECT 10 % 3; 

2.1.2 数值运算的高级技巧

除了基础的算术运算,Hive还提供了一些高级的数值处理函数,比如 ceil() , floor() , round() , rand() 等。这些函数能够处理更复杂的数学运算和数据生成场景。

示例代码:

-- 向上取整 SELECT ceil(3.14); -- 向下取整 SELECT floor(3.14); -- 四舍五入 SELECT round(3.14); -- 生成随机数 SELECT rand(); 

在实际应用中,这些高级函数可以与其他函数组合使用,以满足复杂的数据分析需求。

2.2 Hive内置比较函数

2.2.1 基本比较运算符的使用

比较函数用于比较两个表达式的大小,并返回布尔值。在数据筛选和排序时经常使用。比如 = , <> , > , < , >= , <=

示例代码:

-- 等于 SELECT 1 = 2; -- 不等于 SELECT 1 <> 2; -- 大于 SELECT 2 > 1; -- 小于 SELECT 1 < 2; -- 大于等于 SELECT 2 >= 1; -- 小于等于 SELECT 1 <= 2; 

2.2.2 复杂条件判断的场景应用

在处理复杂逻辑时,Hive也提供了逻辑运算符 AND , OR , NOT 。这使得可以在查询中构建复杂的条件判断。

示例代码:

-- AND条件 SELECT * FROM table WHERE column1 > 0 AND column2 < 10; -- OR条件 SELECT * FROM table WHERE column1 = 'value1' OR column2 = 'value2'; -- NOT条件 SELECT * FROM table WHERE NOT (column1 = 'value1'); 

利用这些函数,可以对数据集执行更精细的查询。

2.3 Hive内置逻辑函数

2.3.1 逻辑运算符与逻辑函数

Hive中的逻辑运算符用于组合条件表达式。这些函数对于数据清洗、查询条件的构建以及数据预处理尤为重要。

示例代码:

-- 逻辑与 (AND) SELECT * FROM table WHERE column1 > 0 AND column2 < 10; -- 逻辑或 (OR) SELECT * FROM table WHERE column1 = 'value1' OR column2 = 'value2'; -- 逻辑非 (NOT) SELECT * FROM table WHERE NOT (column1 = 'value1'); 

2.3.2 多条件逻辑判断实例

在数据分析过程中,可能需要同时考虑多个条件。Hive的逻辑函数如 if() case when 语句提供了强大的条件判断和转换功能。

示例代码:

-- if函数 SELECT name, if(age > 18, 'adult', '未成年') FROM users; -- case when语句 SELECT name, CASE WHEN age < 13 THEN 'child' WHEN age >= 13 AND age <= 18 THEN 'teen' ELSE 'adult' END AS age_group FROM users; 

在处理复杂的数据分析任务时,逻辑函数是不可或缺的一部分。

以上章节内容对Hive内置算术函数、比较函数和逻辑函数进行了详解,涵盖了基本的使用技巧与高级应用实例。接下来的章节将深入介绍Hive字符串与数值处理相关函数,以进一步提高数据处理和分析的能力。

3. Hive字符串与数值处理

3.1 Hive内置转换函数

3.1.1 字符串与数值的转换技巧

在Hive中,数据类型的转换是日常数据处理中的常见操作。字符串与数值的转换可以使用一系列内置函数来完成。例如,使用 CAST() 函数可以将字符串转换为数值类型,或者将数值类型转换为字符串。在进行转换时,需要确保转换后的类型与数据的实际内容相匹配,否则可能会导致转换失败或者数据丢失。

字符串转数值的操作通常涉及到将字符串类型的数字转换为整型或浮点型数据,以便进行数值计算。这在处理从文本文件或日志文件中提取的数值数据时非常有用。

SELECT CAST('123' AS INT) AS int_value; 

在上述例子中,字符串 '123' 被转换为整型数值 123 。如果转换的字符串中包含非数字字符,则会导致转换失败。同样,浮点数转换也要求字符串格式正确:

SELECT CAST('123.45' AS FLOAT) AS float_value; 

此查询将字符串 '123.45' 转换成浮点数值 123.45

数值转字符串的转换则相对简单,因为Hive中几乎所有的数值类型都可以直接转换为字符串类型,无需任何特殊处理。

3.1.2 类型转换的常见问题与解决

类型转换时,最常见的问题是数据格式不匹配,导致转换失败或结果不准确。例如,一个看似数字的字符串可能包含空格、特殊字符或小数点,这些都需要在转换前进行适当的处理。

针对这类问题,可以使用Hive的字符串处理函数先对数据进行清洗和格式化。例如,使用 TRIM() 函数去除空格,使用 REPLACE() 函数替换特定字符,或使用 REGEXP_REPLACE() 进行正则表达式替换。下面是一个处理不规范数字字符串的例子:

SELECT CAST(REGEXP_REPLACE('123 456', ' ', '') AS INT) AS formatted_int, CAST(REGEXP_REPLACE('123.45.67', '[^0-9.]', '') AS FLOAT) AS formatted_float; 

这段代码首先使用 REGEXP_REPLACE() 函数去除或替换掉字符串中的非数字字符,然后使用 CAST() 函数进行类型转换。 formatted_int 会正确地将 '123 456' 转换为整数 123456 ,而 formatted_float 则将 '123.45.67' 转换为浮点数 123.4567

3.2 Hive内置字符串函数

3.2.1 字符串操作基础与应用

Hive提供了丰富的字符串操作函数来满足日常数据处理的需要。基础的字符串函数包括 CONCAT() , SUBSTR() , LENGTH() , REPLACE() 等,它们可以用于拼接字符串、截取子字符串、获取字符串长度以及替换字符串内容等。

对于字符串拼接, CONCAT() 函数能够将多个字符串参数连接成一个单一字符串,如:

SELECT CONCAT('Hello', ' ', 'World') AS concatenated_string; 

这将返回拼接后的字符串 'Hello World' 。如果参数中包含 NULL ,结果也将是 NULL

截取子字符串可以使用 SUBSTR() 函数,指定起始位置和长度,如:

SELECT SUBSTR('HelloWorld', 1, 5) AS substr_string; 

这将返回 'Hello' 。起始位置从1开始计数,长度为5个字符。

获取字符串长度使用 LENGTH() 函数,如:

SELECT LENGTH('HelloWorld') AS length_string; 

该查询将返回字符串 'HelloWorld' 的长度,即10。

字符串替换使用 REPLACE() 函数,它将指定字符串中的某部分替换为另一部分,例如:

SELECT REPLACE('HelloWorld', 'World', 'Hive') AS replace_string; 

这将把 'HelloWorld' 中的 'World' 替换为 'Hive' ,结果为 'HelloHive'

3.2.2 正则表达式在字符串处理中的运用

Hive字符串处理的高级技巧之一是使用正则表达式。Hive中的正则表达式函数,如 REGEXP_REPLACE() , REGEXP_EXTRACT() , REGEXP_SUBSTR() 等,为复杂的字符串匹配提供了强大的工具。

例如,使用 REGEXP_REPLACE() 函数可以从字符串中替换符合正则表达式模式的部分:

SELECT REGEXP_REPLACE('123-456-7890', '[- ]', '') AS phone_without_delimiters; 

这将把电话号码中的 '-' 和空格移除,结果是 '1234567890'

抽取符合特定模式的子字符串,可以使用 REGEXP_EXTRACT() 函数。例如,从一串文本中提取电子邮件地址:

SELECT REGEXP_EXTRACT('Contact us at [email protected]', '[^@]+@[^@]+') AS email; 

这将返回 '[email protected]'

相似地, REGEXP_SUBSTR() 函数用于获取符合正则表达式模式的子字符串:

SELECT REGEXP_SUBSTR('123.456.789', '[0-9]+') AS numbers_from_string; 

这将返回字符串中所有的数字序列,例如 '123' , '456' , '789'

Hive中的正则表达式支持的语法与Java相同,这意味着可以利用大多数Java正则表达式特性进行强大的字符串匹配和数据提取操作。

3.3 Hive内置数值函数

3.3.1 数值函数在数据分析中的应用

Hive中的数值函数提供了处理和分析数据的多种工具。包括基本的算术函数(如 + , - , * , / , % 等),还有更复杂的函数如 CEIL() , FLOOR() , ROUND() 等,这些函数在数据分析过程中特别有用。

例如,基本算术运算符可以用于数值型列的计算。在处理销售数据时,可能需要计算产品的价格与数量的乘积来得到销售额:

SELECT price * quantity AS total_sales FROM sales_data; 

对于浮点数的四舍五入, ROUND() 函数是很有用的工具:

SELECT ROUND(123.4567, 2) AS rounded_number; 

这将返回四舍五入到小数点后两位的数值 '123.46'

对于需要向上或向下取整的场景, CEIL() FLOOR() 函数可以派上用场。 CEIL() 总是向上取整,而 FLOOR() 总是向下取整:

SELECT CEIL(123.45) AS ceiling_number, FLOOR(123.45) AS floor_number; 

这里 CEIL() 返回 '124' ,而 FLOOR() 返回 '123'

3.3.2 复杂数值计算的案例解析

在处理更复杂的数据分析任务时,Hive内置的数值函数可以构建出功能强大的查询。举个例子,假设需要对某数据库中的气温数据进行统计分析,包括平均温度、最高温度和最低温度。同时,需要计算每个温度区间的百分比分布,这可能会用到 CASE 语句以及内置函数。

下面是一个计算平均温度、最高温度和最低温度的示例查询:

SELECT AVG(temperature) AS average_temp, MAX(temperature) AS max_temp, MIN(temperature) AS min_temp FROM weather_data; 

为了计算不同温度区间的百分比分布,可以使用 CASE 语句结合 SUM() 函数:

SELECT SUM(CASE WHEN temperature < 0 THEN 1 ELSE 0 END) / COUNT(*) * 100 AS percentage_below_zero, SUM(CASE WHEN temperature BETWEEN 0 AND 10 THEN 1 ELSE 0 END) / COUNT(*) * 100 AS percentage_0_to_10, SUM(CASE WHEN temperature > 30 THEN 1 ELSE 0 END) / COUNT(*) * 100 AS percentage_above_30 FROM weather_data; 

这个查询计算了低于零度、零度到十度之间以及高于三十度的温度数据在所有数据中的百分比。这样的分析可以应用于气象分析、环境监控等领域。

在实际应用中,Hive的数值函数不仅限于基本的算术运算,它们能够支持广泛的数据分析和数据处理场景,从基础的统计数据到复杂的分析模型。通过熟练掌握这些内置函数,可以大大提升数据处理和分析的效率。

4. Hive日期与聚合操作

在数据处理的世界里,对日期和时间的解析及聚合操作是非常重要的。Hive提供了丰富的日期和时间函数以及聚合函数来满足数据分析的需求。本章节将深入探讨Hive中的日期与聚合操作,并通过实例来解析如何在实际数据处理中运用这些功能。

4.1 Hive内置日期函数

Hive的日期和时间函数主要用于解析、处理和转换日期和时间数据。它们不仅在数据清洗阶段非常有用,同时对于数据的聚合分析也至关重要。

4.1.1 日期时间函数的使用场景

Hive中的日期时间函数可以用于如下场景:

  • 提取日期时间的组成部分(如年、月、日、小时等)。
  • 格式化日期时间数据以适应不同的输出格式。
  • 计算日期时间的差异和间隔。
  • 对日期时间进行加减运算,例如增加一定数量的天数或月份。

下面是一些具体的日期时间函数示例:

-- 提取当前日期 SELECT current_date(); -- 提取当前时间 SELECT current_timestamp(); -- 提取日期时间的年份部分 SELECT year('2023-04-01'); -- 格式化日期时间 SELECT date_format('2023-04-01 12:00:00', '%Y-%m-%d'); 

4.1.2 时间序列分析与预测实例

时间序列分析是通过分析时间序列数据来预测未来的数值,Hive的日期时间函数对此非常有帮助。以下是一个时间序列分析的示例:

-- 假设我们有一个销售数据表sales,其中有一个时间戳字段sale_date表示销售发生的时间 WITH time_series_data AS ( SELECT sale_date, sales_amount FROM sales WHERE sale_date BETWEEN '2022-01-01' AND '2022-12-31' ) -- 计算每个月的销售总额 SELECT date_format(sale_date, '%Y-%m') AS sale_month, sum(sales_amount) AS monthly_sales_amount FROM time_series_data GROUP BY sale_month ORDER BY sale_month; 

4.1.3 日期函数的高级用法

在一些复杂的场景下,我们可能需要进行更高级的日期时间操作。例如,将时间戳向前或向后偏移一定的时间单位,或者对时间戳进行四舍五入。以下是一个高级日期函数使用的例子:

-- 向前偏移一个月 SELECT date_add('2023-01-31', -1, 'month'); -- 向后偏移12小时 SELECT date_add('2023-01-31 12:00:00', 12, 'hour'); 

4.2 Hive内置聚合函数

聚合函数在数据处理中非常常见,它们用于对数据进行汇总和分析。Hive内置了多种聚合函数,包括但不限于COUNT、SUM、AVG、MIN、MAX等。

4.2.1 基本聚合函数的原理与实践

聚合函数用于对分组后的数据集进行计算。基本的聚合函数使用非常广泛,它们能够为数据分析提供支持。以下是一些聚合函数的示例:

-- 计算总销售量 SELECT COUNT(*) AS total_sales_count FROM sales; -- 计算平均销售额 SELECT AVG(sales_amount) AS avg_sales_amount FROM sales; -- 计算最高和最低销售额 SELECT MAX(sales_amount) AS max_sales_amount, MIN(sales_amount) AS min_sales_amount FROM sales; 

4.2.2 多维度数据聚合分析技巧

多维度的数据聚合分析要求我们不仅对整个数据集进行聚合,还要求对不同的维度进行分组聚合。Hive通过GROUP BY语句支持对数据集进行多维度分组聚合操作。以下是使用多维度分组聚合的例子:

-- 按月和产品类别聚合销售数据 SELECT date_format(sale_date, '%Y-%m') AS sale_month, product_category, SUM(sales_amount) AS monthly_sales_amount FROM sales GROUP BY sale_month, product_category ORDER BY sale_month, product_category; 

通过以上这些例子可以看出,Hive内置的日期与聚合操作函数是非常强大且灵活的。在数据处理和分析中,合理地使用这些函数可以有效地提升数据处理效率,并且能够更深入地挖掘数据背后的洞察。在实际工作中,我们应该根据具体问题灵活运用这些函数,以实现数据处理与分析的目标。

5. Hive的高级函数与自定义开发

Hive作为大数据处理工具,其内置函数库已经足够强大,可以应对大部分数据处理场景。但是,在面对特定的业务需求时,我们可能需要使用更高级的函数或者自定义函数来实现特定的数据分析和转换需求。本章节将深入探讨Hive的高级函数使用,以及如何开发和应用用户自定义函数(UDF),用户自定义聚合函数(UDAF)和用户自定义表生成函数(UDTF)。

5.1 Hive分桶与分组函数

5.1.1 分桶函数的原理与应用

分桶是一种更细粒度的数据划分技术,它通过对表中数据进行哈希划分,将数据分到不同的桶(bucket)中,每个桶对应表中的一个文件。分桶函数在数据采样、高效去重和数据抽样等场景中特别有用。

CREATE TABLE bucketed_users CLUSTERED BY (user_id) INTO 10 BUCKETS STORED AS ORC AS SELECT * FROM users; 

在这个例子中,我们创建了一个名为 bucketed_users 的分桶表,根据 user_id 字段将数据分散到10个桶中。

5.1.2 分组函数在数据处理中的作用

分组函数与分桶函数不同,它们主要用于对数据进行分组聚合操作,如分组统计、分组计数等。Hive提供了诸如 ROLLUP , CUBE , 和 GROUPING SETS 的高级分组功能。

SELECT category, subcategory, SUM(sales) AS total_sales FROM sales_data GROUP BY category, subcategory WITH ROLLUP; 

此查询会返回按 category subcategory 分组的销售总额,以及每个 category 的总销售额( ROLLUP 的作用)。

5.2 Hive窗口与连接函数

5.2.1 窗口函数的深入理解与案例

窗口函数(Window Functions)在Hive中用于执行计算,如行数、排名、百分位数等,适用于需要复杂数据聚合的场景。

SELECT user_id, purchase_date, total_purchase_amount, RANK() OVER (PARTITION BY purchase_date ORDER BY total_purchase_amount DESC) AS rank_in_day FROM ( SELECT user_id, purchase_date, SUM(purchase_amount) AS total_purchase_amount FROM purchase_history GROUP BY user_id, purchase_date ) AS daily_purchases; 

在这个案例中,我们使用 RANK() 窗口函数来为每个购买日期的用户按购买总额进行排名。

5.2.2 复杂连接操作的技巧与注意事项

Hive支持多种连接类型,包括内连接(INNER JOIN)、左外连接(LEFT OUTER JOIN)、右外连接(RIGHT OUTER JOIN)和全外连接(FULL OUTER JOIN)。在执行连接操作时,需要注意各表间的连接字段和数据分布情况,以避免出现笛卡尔积,从而导致性能问题。

SELECT * FROM orders o JOIN users u ON o.user_id = u.user_id WHERE u.country = 'US'; 

5.3 Hive用户自定义函数(UDF)

5.3.1 UDF开发基础与流程

用户自定义函数(UDF)是Hive中用于扩展HiveQL功能的一种方法。UDF允许用户编写自己的函数,并在查询中调用它们。UDF开发通常涉及Java编程。

import org.apache.hadoop.hive.ql.exec.UDF; import org.apache.hadoop.io.Text; public class LowerCaseUDF extends UDF { public Text evaluate(Text input) { if (input == null) return null; return new Text(input.toString().toLowerCase()); } } 

此UDF将输入的字符串转换为小写,并返回转换后的字符串。

5.3.2 UDF在实际项目中的应用案例

假设我们有一个Hive表,其中包含电子邮件地址,我们需要将所有的电子邮件地址转换为小写格式,这时候可以使用我们刚刚定义的 LowerCaseUDF

ADD JAR /path/to/lowercaseudf.jar; CREATE TEMPORARY FUNCTION lowercase AS 'udf.LowerCaseUDF'; SELECT lowercase(email) AS email FROM emails; 

5.4 Hive用户自定义聚合函数(UDAF)与表生成函数(UDTF)

5.4.1 UDAF与UDTF的开发要点

用户自定义聚合函数(UDAF)和用户自定义表生成函数(UDTF)是Hive更高级的扩展函数。UDAF用于在 GROUP BY 查询中实现复杂的聚合计算,而UDTF可以将单行输入转换为多行输出。

UDAF的开发通常需要继承 GenericUDAFvaluator 类,并实现多个方法,如 iterate() , terminatePartial() , merge() , terminate() 等。UDTF则需要实现 GenericUDTF 类。

5.4.2 高级自定义函数在数据分析中的优势与实例

在实际项目中,利用UDAF和UDTF可以执行一些高级的数据分析操作。比如,我们可以创建一个UDAF来计算一组数据的自定义统计量,或者使用UDTF来拆分复杂的数据结构到多个输出行。

例如,我们创建一个UDAF,用于计算一组数字的最大值和最小值之和:

public class SumOfMinMaxUDAF extends GenericUDAFResolver { public static class SumOfMinMaxEvaluator extends GenericUDAFEvaluator { private IntWritable result; @Override public ObjectInspector init(ObjectInspector[] args) throws UDFException { // ...初始化逻辑 } @Override public void iterate(Object[] args) throws HiveException { // ...迭代逻辑 } @Override public Object terminatePartial() throws HiveException { // ...部分终止逻辑 } @Override public Object terminate() throws HiveException { return result; } } } 

使用这个UDAF,我们可以在Hive查询中进行如下操作:

SELECT SumOfMinMaxUDAF(column_name) FROM table_name; 

通过这种方式,我们可以很方便地在Hive中使用自定义的聚合逻辑来处理数据。UDTF的使用场景类似,可以用来处理更加复杂的数据输出需求。

在本章中,我们深入探讨了Hive的分桶与分组函数、窗口与连接函数、以及用户自定义函数(UDF)、用户自定义聚合函数(UDAF)与表生成函数(UDTF)。通过这些高级功能,数据科学家和工程师们可以将Hive变得更加灵活和强大,以适应更多复杂的数据处理和分析场景。

本文还有配套的精品资源,点击获取

menu-r.4af5f7ec.gif

简介:Hive是一个基于Hadoop的大数据仓库工具,支持通过类SQL语言HQL处理存储在HDFS中的大规模数据集。本文全面介绍Hive的内置函数,包括数据类型、算术、比较、逻辑、转换、字符串、数值、日期、聚合、分桶、分组、窗口、连接、子查询、分区以及用户自定义函数(UDF、UDAF、UDTF)等,旨在帮助用户高效地分析和管理大数据。


本文还有配套的精品资源,点击获取

menu-r.4af5f7ec.gif


Read more

Ubuntu 24.04 LTS WSL 下载地址

地址可能会变,但是进入官网后,就按照链接的文件夹目录,一个一个找就可以找到的(亲测:清华大学镜像地址是可以的) https://mirrors.tuna.tsinghua.edu.cn/ubuntu-releases/noble/ 一、Ubuntu 官方 WSL 稳定版(.wsl,双击/导入都稳) * Ubuntu 24.04.2 LTS WSL 官方稳定版(x64) https://releases.ubuntu.com/noble/ubuntu-24.04.2-wsl-amd64.wsl 二、国内清华镜像(下载最快、最稳) * 清华镜像 Ubuntu 24.04.2 WSL 稳定版(

By Ne0inhk
ARM Linux 驱动开发篇--- Linux 并发与竞争实验(自旋锁实现 LED 设备互斥访问)--- Ubuntu20.04自旋锁实验

ARM Linux 驱动开发篇--- Linux 并发与竞争实验(自旋锁实现 LED 设备互斥访问)--- Ubuntu20.04自旋锁实验

🎬 渡水无言:个人主页渡水无言 ❄专栏传送门: 《linux专栏》《嵌入式linux驱动开发》《linux系统移植专栏》 ❄专栏传送门: 《freertos专栏》《STM32 HAL库专栏》 ⭐️流水不争先,争的是滔滔不绝  📚博主简介:第二十届中国研究生电子设计竞赛全国二等奖 |国家奖学金 | 省级三好学生 | 省级优秀毕业生获得者 | ZEEKLOG新星杯TOP18 | 半导纵横专栏博主 | 211在读研究生 在这里主要分享自己学习的linux嵌入式领域知识;有分享错误或者不足的地方欢迎大佬指导,也欢迎各位大佬互相三连 目录 前言 一、实验基础说明 1.1、自旋锁简介 1.2 本次实验设计思路 二、硬件原理分析(看过之前博客的可以忽略) 三、实验程序编写 3.1 自旋锁 LED 驱动代码(spinlock.c) 3.2、驱动代码分段解析 3.2.

By Ne0inhk
磁盘到 inode:深入理解 Linux ext 文件系统底层原理

磁盘到 inode:深入理解 Linux ext 文件系统底层原理

前言: 文件系统是操作系统管理存储的核心机制,却常常被开发者视为“黑盒”。本文将从磁盘硬件原理出发,深入浅出地剖析 Linux 中经典的ext 文件系统如何组织数据、管理文件,并揭示inode、块、软硬链接等关键概念的底层实现。通过理解这些机制,你不仅能更高效地使用文件系统,还能在调试、优化乃至数据恢复时多一份底气。让我们一起揭开文件系统的神秘面纱! 文章目录 * 一、硬件理解 * 1.1 磁盘物理结构 * 1.2 磁盘的逻辑结构 * 二、Ext文件系统 * 2.1 文件属性与分区 * 2.2 组管理字段 * 2.3 inode编号查询文件 * 2.4 路径缓存(目录树) * 2.5 inode与Data Blocks的映射 * 2.6 文件结构图解 * 三、

By Ne0inhk
【Linux网络系列】:打破 HTTP 明文诅咒,在Linux 下用 C++ 手搓 HTTPS 服务器全过程!(附实现源码)

【Linux网络系列】:打破 HTTP 明文诅咒,在Linux 下用 C++ 手搓 HTTPS 服务器全过程!(附实现源码)

🔥 本文专栏:Linux网络 🌸作者主页:努力努力再努力wz 💪 今日博客励志语录:成人的世界里,情绪是最廉价的成本。你可以崩溃,但请记得设置闹钟。哭完之后,账单还在,生活还得继续,最能治愈焦虑的永远不是鸡汤,而是账户里的余额和手里的专业技能。 ★★★ 本文前置知识: Http 引入 在之前的讲解中,我们探讨了HTTP 协议并实现了一个基于HTTP 的 Web 服务器。然而,HTTP存在一个根本性的安全缺陷,即明文传输。我们知道,在客户端(通常为浏览器)与服务端通信的大多数场景中,客户端会向服务端发送GET 或POST 请求。这两种请求均可用于提交数据。对于GET 请求,其提交的表单数据以查询参数的形式附加在请求行中的 URL 之后,表现为键值对。由于 URL 本身存在长度限制,GET 请求只能传递较简单的表单数据,无法传输体积较大的内容(例如文件)。此外,提交后,浏览器地址栏会完整显示

By Ne0inhk