文章

操作系统高频总结八

C++多线程并发问题

在 C++ 中,多线程编程提供了强大的并发能力,但也会带来一系列并发问题。以下是常见的多线程并发问题以及如何解决它们的详细说明。


1. 数据竞争(Data Race)

问题描述:

多个线程同时访问同一块共享数据,并且至少有一个线程对数据进行写操作时,如果没有正确的同步机制,可能导致数据竞争。

表现:

  • 程序行为不可预测。
  • 数据损坏或错误的计算结果。

解决方法:

  1. 使用互斥锁(Mutex):

    • 使用 std::mutex 保护共享数据。
    1
    2
    3
    4
    5
    6
    7
    
    std::mutex mtx;
    int counter = 0;
       
    void increment() {
        std::lock_guard<std::mutex> lock(mtx); // 自动加锁和解锁
        ++counter;
    }
    
  2. 原子操作:

    • 使用 std::atomic 提供无锁线程安全的操作。
    1
    2
    3
    4
    5
    
    std::atomic<int> counter(0);
       
    void increment() {
        ++counter; // 原子操作
    }
    

2. 死锁(Deadlock)

问题描述:

多个线程互相等待对方持有的资源释放,导致线程无法继续执行。

表现:

  • 程序永久挂起。
  • 无法完成任务。

解决方法:

  1. 避免嵌套锁:

    • 尽量减少多锁嵌套的使用,或者严格按照固定的顺序加锁。
    1
    2
    3
    4
    5
    6
    7
    
    std::mutex mtx1, mtx2;
       
    void threadFunc() {
        std::lock(mtx1, mtx2); // 避免手动加锁
        std::lock_guard<std::mutex> lock1(mtx1, std::adopt_lock);
        std::lock_guard<std::mutex> lock2(mtx2, std::adopt_lock);
    }
    
  2. 尝试锁:

    • 使用 std::unique_locktry_lock 避免长时间等待。
    1
    2
    3
    4
    5
    6
    7
    
    if (mtx1.try_lock()) {
        if (mtx2.try_lock()) {
            // Critical section
            mtx2.unlock();
        }
        mtx1.unlock();
    }
    
  3. 使用超时机制:

    • 使用 std::unique_lock 和条件变量结合超时。
    1
    2
    3
    4
    
    std::unique_lock<std::mutex> lock(mtx, std::chrono::milliseconds(100));
    if (lock.owns_lock()) {
        // Critical section
    }
    

3. 活锁(Livelock)

问题描述:

线程没有被阻塞,但由于不断地尝试和失败,始终无法完成任务。

表现:

  • 线程不断尝试重复某个操作。
  • 系统陷入高频率无效操作。

解决方法:

  • 限制重试次数或引入随机退避算法。

  • 例如:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    
    void retryOperation() {
        for (int i = 0; i < 5; ++i) {
            if (tryLock()) {
                // Critical section
                return;
            }
            std::this_thread::sleep_for(std::chrono::milliseconds(rand() % 100));
        }
    }
    

4. 资源争用(Resource Contention)

问题描述:

多个线程竞争对共享资源的访问,导致性能下降。

表现:

  • 系统吞吐量降低。
  • 线程因等待锁而阻塞。

解决方法:

  1. 减少锁的粒度:

    • 尽量将锁的保护范围缩小,减少线程等待时间。
  2. 使用读写锁:

    • 使用 std::shared_mutex 区分读操作和写操作。
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    
    std::shared_mutex rwLock;
       
    void readOperation() {
        std::shared_lock<std::shared_mutex> lock(rwLock); // 共享锁
        // Read data
    }
       
    void writeOperation() {
        std::unique_lock<std::shared_mutex> lock(rwLock); // 独占锁
        // Write data
    }
    
  3. 使用无锁数据结构:

    • 利用 std::atomic 或其他无锁队列,如 concurrent_queue

5. 内存可见性问题(Memory Visibility Issues)

问题描述:

线程对共享变量的更新在其他线程中不可见,导致线程操作的结果不一致。

表现:

  • 数据看似没有更新。
  • 程序输出意外结果。

解决方法:

  1. 使用原子变量:

    • 原子变量确保操作对所有线程可见。
    1
    
    std::atomic<int> counter(0);
    
  2. 使用内存屏障:

    • 使用 std::atomic_thread_fence 控制内存可见性。
    1
    
    std::atomic_thread_fence(std::memory_order_acquire);
    
  3. 使用同步原语:

    • 互斥锁、条件变量等同步工具隐式保证内存可见性。

6. 线程饥饿(Thread Starvation)

问题描述:

某些线程因为得不到足够的资源(如锁)而长期无法执行。

表现:

  • 优先级低的线程无法执行。
  • 系统出现不公平性。

解决方法:

  1. 公平锁:
    • 某些锁实现支持公平性(如 FIFO)。
    • std::mutex 之外,可以考虑一些公平锁实现(如 Boost 中的锁)。
  2. 避免优先级反转:
    • 使用锁超时机制或动态调整线程优先级。

7. 条件变量的虚假唤醒

问题描述:

线程被条件变量唤醒,但条件可能未满足。

表现:

  • 线程被频繁唤醒,却不能执行有意义的操作。

解决方法:

  • 使用循环检查条件:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    
    std::condition_variable cv;
    std::mutex mtx;
    bool ready = false;
      
    void consumer() {
        std::unique_lock<std::mutex> lock(mtx);
        cv.wait(lock, [] { return ready; }); // 确保条件满足
        // Process data
    }
    

8. 不正确的线程退出

问题描述:

线程可能在未完成任务时被强制终止,导致资源泄漏或状态不一致。

表现:

  • 数据丢失。
  • 系统状态异常。

解决方法:

  • 优雅地退出线程:

    • 使用标志位通知线程退出。
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    
    std::atomic<bool> stopFlag(false);
      
    void worker() {
        while (!stopFlag) {
            // Do work
        }
    }
      
    void stop() {
        stopFlag = true;
    }
    

总结

多线程编程带来了强大的并发能力,但也引入了复杂性。通过合理使用 C++ 提供的工具(如 std::mutexstd::atomicstd::condition_variable)以及设计良好的同步策略,可以有效避免常见的并发问题。

如果你有具体的并发场景或问题,可以进一步探讨更有针对性的解决方案!

场景千万级数量级怎么处理

处理千万级数量级的数据和任务需要充分利用系统资源并采取优化策略,以确保高效性和稳定性。以下是详细的处理方法,结合多线程、多进程、分布式架构等进行说明。


1. 问题拆解

首先需要明确处理任务的特点:

  1. 任务类型:
    • 计算密集型: 大量数学运算(如图像处理、AI训练)。
    • I/O 密集型: 数据读写、网络请求。
    • 混合型: 计算和 I/O 并存。
  2. 数据特性:
    • 是否需要全部加载到内存。
    • 数据是否可以分块、分区。
  3. 实时性需求:
    • 是否需要低延迟处理。

2. 多线程/多进程并发处理

多线程

  • 适合 I/O 密集型任务,如网络请求或数据库查询。
  • 使用线程池限制并发线程数量,避免资源耗尽。

示例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
#include <thread>
#include <vector>
#include <queue>
#include <mutex>
#include <condition_variable>

const int THREAD_COUNT = 8;
std::queue<int> taskQueue;
std::mutex queueMutex;
std::condition_variable cv;

void worker() {
    while (true) {
        int task;
        {
            std::unique_lock<std::mutex> lock(queueMutex);
            cv.wait(lock, [] { return !taskQueue.empty(); });
            task = taskQueue.front();
            taskQueue.pop();
        }
        // 处理任务
        std::cout << "Processing task: " << task << std::endl;
    }
}

int main() {
    std::vector<std::thread> workers;
    for (int i = 0; i < THREAD_COUNT; ++i) {
        workers.emplace_back(worker);
    }

    // 添加任务
    for (int i = 0; i < 10000000; ++i) {
        std::unique_lock<std::mutex> lock(queueMutex);
        taskQueue.push(i);
        cv.notify_one();
    }

    for (auto &worker : workers) {
        worker.join();
    }

    return 0;
}

多进程

  • 适合计算密集型任务,充分利用多核 CPU。
  • 使用进程池(如 boost::asio::thread_pool 或自己实现)。
  • 可以通过进程间通信(如共享内存或消息队列)共享数据。

工具:

  • Boost.Process: 便于管理子进程。
  • MPI: 跨节点的并行计算。

3. 数据分块处理

对于大规模数据,可以采用分块处理策略:

  1. 分批加载:
    • 每次只加载一定数量的数据到内存。
    • 避免内存溢出。
  2. 分区处理:
    • 将数据按一定规则分区,每个分区分配一个线程或进程处理。
    • 分区可以按索引范围、哈希值等划分。

示例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
void processChunk(int start, int end) {
    for (int i = start; i < end; ++i) {
        // 处理数据
    }
}

int main() {
    int totalTasks = 10000000;
    int chunkSize = 1000000; // 每块任务数
    int threadCount = 8;

    std::vector<std::thread> threads;
    for (int i = 0; i < threadCount; ++i) {
        int start = i * chunkSize;
        int end = std::min(start + chunkSize, totalTasks);
        threads.emplace_back(processChunk, start, end);
    }

    for (auto &t : threads) {
        t.join();
    }

    return 0;
}

4. 使用高性能数据结构和库

高效的容器

  • 使用高效的数据结构,如 std::vector 替代 std::list
  • 使用并发数据结构:
    • TBB(Threading Building Blocks): 提供并发队列和哈希表。
    • Boost.Lockfree: 提供无锁队列。

并行算法

  • 使用 C++17 的标准并行算法(如 std::for_each 的并行版本)。
  • TBB 提供高级并行功能。

5. 分布式处理

如果单机性能不足,可以采用分布式处理框架:

  1. 大数据框架:
    • Apache Hadoop: 基于 HDFS 和 MapReduce 的分布式处理。
    • Apache Spark: 内存计算引擎,支持批处理和流处理。
  2. 分布式数据库:
    • 使用分布式数据库(如 MongoDB、Cassandra)存储数据,并行处理查询。
  3. 消息队列:
    • 使用消息队列(如 Kafka、RabbitMQ)分发任务。

示例(伪代码 MapReduce 模型):

1
2
3
4
5
Map(task):
    Emit(key, value)

Reduce(key, values):
    Aggregate(values)

6. 数据流处理

对于需要实时处理的千万级数据,数据流处理框架是一个好选择:

  • Flink: 高吞吐、低延迟的数据流处理。
  • Storm: 实时计算系统。

7. 持续优化策略

  1. 减少锁竞争:
    • 减少锁的使用范围,改进为读写锁或无锁队列。
  2. 负载均衡:
    • 使用任务分配策略,避免线程或进程负载不均。
  3. 内存优化:
    • 使用内存池或预分配技术减少内存分配开销。

8. 监控和调整

  • 性能监控:
    • 使用 perfvalgrind 等工具监控性能瓶颈。
  • 动态调整:
    • 根据任务特点动态调整线程池大小、分块策略等。

总结

  • 单机优化:
    • 使用线程池或进程池。
    • 数据分块处理和高效数据结构。
  • 分布式扩展:
    • 使用分布式计算框架(如 Spark)。
    • 利用消息队列实现任务分发。

选择策略取决于任务的特点和实际需求。如果提供更具体的场景(如计算模型或 I/O 特性),可以进一步优化设计!

哪几种常见的signal?SIGSEGV… -> 正常终止程序的信号?-> kill 进程,几号信号?

在 UNIX 和类 UNIX 系统(如 Linux)中,信号(Signal)是一种用于进程间通信或向进程报告事件的机制。以下是关于常见信号、如何正常终止程序以及用于杀死进程的信号的详细说明。


1. 常见信号

信号编号信号名称含义默认行为
1SIGHUP挂起或终止控制终端时发送终止进程
2SIGINT中断信号(通常由 Ctrl+C 发送)终止进程
3SIGQUIT退出信号(Ctrl+\)终止进程并生成核心转储
9SIGKILL强制杀死进程终止进程(不可捕获)
11SIGSEGV段错误(无效内存访问)终止进程并生成核心转储
13SIGPIPE向无读端的管道写数据终止进程
14SIGALRM定时器到期终止进程
15SIGTERM请求终止进程终止进程
17/18/19SIGCHLD子进程状态改变忽略
19SIGSTOP停止进程(Ctrl+Z)停止进程(不可捕获)
20SIGTSTP交互式终止进程(Ctrl+Z)停止进程
30/31/20SIGUSR1用户定义信号 1终止进程
31/29/21SIGUSR2用户定义信号 2终止进程

2. 正常终止程序的信号

通常情况下,用于正常终止程序的信号是:

  1. SIGTERM (15):
    • 标准的终止信号,表示请求进程退出。
    • 进程可以捕获此信号并执行清理操作后退出。
    • 常用命令:kill [PID](默认发送 SIGTERM)。
  2. SIGINT (2):
    • 表示用户请求中断进程(如 Ctrl+C)。
    • 进程可以捕获此信号并选择是否退出。
  3. SIGHUP (1):
    • 表示控制终端挂起,通常用来通知守护进程重新加载配置文件或退出。
    • 常见用法:kill -SIGHUP [PID]

3. 强制终止进程的信号

SIGKILL (9)

  • 无条件、强制终止进程。
  • 不可捕获、不可忽略,进程无法执行任何清理操作。
  • 常用命令:kill -9 [PID]

4. 信号的常见使用场景

(1) 发送信号

  • 使用 kill 命令:

    1
    2
    3
    
    kill -SIGTERM [PID]  # 发送 SIGTERM
    kill -9 [PID]        # 强制终止
    kill -SIGUSR1 [PID]  # 发送用户定义信号
    
  • 使用 raisekill 系统调用(C/C++ 示例):

    1
    2
    3
    4
    5
    6
    7
    8
    
    #include <signal.h>
    #include <unistd.h>
      
    int main() {
        pid_t pid = getpid();
        kill(pid, SIGTERM); // 发送 SIGTERM 信号给当前进程
        return 0;
    }
    

(2) 捕获信号

  • 使用

    1
    
    signal
    

    函数捕获信号:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    
    #include <iostream>
    #include <signal.h>
      
    void signalHandler(int signal) {
        std::cout << "Caught signal " << signal << std::endl;
        exit(0);
    }
      
    int main() {
        signal(SIGINT, signalHandler); // 捕获 Ctrl+C
        while (true) {
            std::cout << "Running..." << std::endl;
            sleep(1);
        }
        return 0;
    }
    

5. 信号处理机制

  1. 默认行为:
    • 大多数信号的默认行为是终止进程。
    • 某些信号(如 SIGKILLSIGSTOP)无法被捕获或忽略。
  2. 可自定义行为:
    • 使用信号处理函数(如 signalsigaction)定义自定义行为。
  3. 信号屏蔽:
    • 使用 sigprocmask 可以屏蔽特定信号,暂时阻止其交付。

6. 其他相关命令

  • 列出所有信号:

    1
    
    kill -l
    
  • 通过进程名称发送信号:

    1
    
    pkill -SIGTERM process_name
    
  • 查看进程收到的信号:

    1
    
    strace -e signal [command]
    

总结

  • 常见信号包括 SIGSEGV(段错误)、SIGKILL(强制杀死进程)、SIGTERM(请求终止进程)等。
  • 正常终止:推荐使用 SIGTERMSIGINT,允许程序完成清理工作。
  • 强制终止:使用 SIGKILL(不可捕获)。
  • 通过 signalsigaction 捕获信号,实现程序对信号的自定义处理。

什么情况下会使用静态变量

在 C++ 中,静态变量(static具有独特的存储和生命周期特性,因此在某些特定场景下非常有用。以下是静态变量的特点、使用场景以及注意事项。


静态变量的特点

  1. 存储位置:
    • 静态变量存储在全局/静态存储区(通常与全局变量相同)。
    • 不随函数或对象的生命周期而销毁。
  2. 生命周期:
    • 静态变量从程序启动到程序结束一直存在(全局生命周期)。
  3. 作用域:
    • 局部静态变量:
      • 作用域限制在函数或代码块内,但其值在多次调用之间保留。
    • 类的静态成员变量:
      • 属于类本身,而不是某个对象。
  4. 初始化:
    • 静态变量只初始化一次。
    • 未显式初始化的静态变量会被自动初始化为零(数值类型)或默认值。

使用静态变量的场景

1. 记录函数调用的状态

静态变量可以用于记录函数调用之间的状态。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
#include <iostream>

void counter() {
    static int count = 0; // 静态局部变量,保留上次的值
    count++;
    std::cout << "Function called " << count << " times." << std::endl;
}

int main() {
    counter();
    counter();
    counter();
    return 0;
}

用途: 统计函数调用次数、维持状态机的状态。


2. 实现单例模式

静态变量用于保证全局唯一的实例。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
#include <iostream>

class Singleton {
public:
    static Singleton& getInstance() {
        static Singleton instance; // 静态局部变量
        return instance;
    }

private:
    Singleton() = default; // 构造函数私有化
    Singleton(const Singleton&) = delete;
    Singleton& operator=(const Singleton&) = delete;
};

int main() {
    Singleton& s1 = Singleton::getInstance();
    Singleton& s2 = Singleton::getInstance();
    std::cout << (&s1 == &s2) << std::endl; // 输出 1
    return 0;
}

用途: 单例模式确保某个类在程序中只有一个实例。


3. 类的共享数据

类的静态成员变量可以在所有对象之间共享,而不属于某个对象。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
#include <iostream>

class Counter {
public:
    static int count; // 静态成员变量声明

    Counter() {
        count++;
    }

    ~Counter() {
        count--;
    }
};

int Counter::count = 0; // 静态成员变量定义

int main() {
    Counter c1, c2;
    std::cout << "Number of objects: " << Counter::count << std::endl;
    {
        Counter c3;
        std::cout << "Number of objects: " << Counter::count << std::endl;
    }
    std::cout << "Number of objects: " << Counter::count << std::endl;
    return 0;
}

用途: 统计类的实例个数,或者实现全局共享的状态。


4. 缓存或延迟初始化

静态变量用于在需要时初始化资源,仅初始化一次。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
#include <iostream>
#include <vector>

const std::vector<int>& getPrimes() {
    static std::vector<int> primes = {2, 3, 5, 7, 11}; // 静态变量缓存计算结果
    return primes;
}

int main() {
    const auto& primes = getPrimes();
    for (int prime : primes) {
        std::cout << prime << " ";
    }
    return 0;
}

用途: 计算代价较高的数据或资源初始化。


5. 实现计时器或计数器

在多线程或异步环境中,静态变量可以用于全局计时器或计数器。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
#include <iostream>
#include <chrono>
#include <thread>

void timer() {
    static auto start_time = std::chrono::steady_clock::now();
    auto now = std::chrono::steady_clock::now();
    std::cout << "Elapsed time: "
              << std::chrono::duration_cast<std::chrono::milliseconds>(now - start_time).count()
              << " ms" << std::endl;
}

int main() {
    timer();
    std::this_thread::sleep_for(std::chrono::milliseconds(500));
    timer();
    return 0;
}

用途: 跟踪时间流逝。


6. 常量池或全局共享配置

静态变量可用于存储不可变的全局配置或常量池。

1
2
3
4
5
6
7
8
9
10
11
12
13
#include <iostream>

class Config {
public:
    static const int maxConnections = 100; // 静态常量
    static const int timeout = 30;
};

int main() {
    std::cout << "Max Connections: " << Config::maxConnections << std::endl;
    std::cout << "Timeout: " << Config::timeout << std::endl;
    return 0;
}

用途: 系统配置和不可变数据的全局访问。


静态变量的注意事项

  1. 线程安全性:

    • 在多线程程序中,静态变量的初始化或修改可能引发竞争条件。

    • C++11 后,局部静态变量的初始化是线程安全的。

    • 示例:

      1
      2
      3
      
      void safeFunction() {
          static int value = 0; // 线程安全初始化
      }
      
  2. 内存占用:

    • 静态变量会一直占用内存,直到程序结束。使用时需注意资源占用。
  3. 生命周期与作用域的关系:

    • 静态变量的生命周期长于其作用域。
  4. 类的静态成员变量定义:

    • 非常量静态成员变量需要在类外定义。

      1
      2
      3
      4
      5
      
      class MyClass {
          static int value;
      };
           
      int MyClass::value = 0; // 定义静态成员变量
      
  5. 延迟初始化的依赖:

    • 如果静态变量依赖其他全局变量或函数,需确保初始化顺序正确。

总结

静态变量适用于以下场景:

  • 需要跨函数或跨对象保存状态。
  • 实现类级别的共享数据。
  • 缓存昂贵的初始化结果。
  • 需要实现单例模式或全局配置。

静态变量的正确使用能有效提高程序性能和代码简洁性,但需注意线程安全和资源管理问题。

多线程读写同一个静态变量你是怎么解决的

多线程读写同一个静态变量可能会导致数据竞争(Data Race),从而引发不一致性或未定义行为。为了安全地在多线程环境中操作静态变量,需要使用同步机制。以下是解决多线程访问静态变量的常见方法及代码示例。


1. 使用互斥锁(Mutex)保护静态变量

互斥锁是最常用的同步机制,用于确保同一时刻只有一个线程可以访问静态变量。

示例代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
#include <iostream>
#include <thread>
#include <mutex>

static int sharedCounter = 0;    // 静态变量
std::mutex mtx;                  // 互斥锁

void increment() {
    for (int i = 0; i < 1000; ++i) {
        std::lock_guard<std::mutex> lock(mtx); // 自动加锁和解锁
        ++sharedCounter;
    }
}

int main() {
    std::thread t1(increment);
    std::thread t2(increment);

    t1.join();
    t2.join();

    std::cout << "Final counter value: " << sharedCounter << std::endl;
    return 0;
}

特点

  • 优点: 简单易用,提供强大的同步保障。
  • 缺点: 如果线程频繁加锁和解锁,会增加开销。

2. 使用读写锁(Read-Write Lock)优化并发读性能

如果静态变量读操作远多于写操作,可以使用读写锁(std::shared_mutex)来区分读和写的访问。

示例代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
#include <iostream>
#include <thread>
#include <shared_mutex>
#include <vector>

static int sharedCounter = 0;        // 静态变量
std::shared_mutex rwLock;            // 读写锁

void readCounter() {
    for (int i = 0; i < 1000; ++i) {
        std::shared_lock<std::shared_mutex> lock(rwLock); // 共享锁
        std::cout << "Read counter: " << sharedCounter << std::endl;
    }
}

void writeCounter() {
    for (int i = 0; i < 1000; ++i) {
        std::unique_lock<std::shared_mutex> lock(rwLock); // 独占锁
        ++sharedCounter;
    }
}

int main() {
    std::thread writer(writeCounter);
    std::vector<std::thread> readers;
    for (int i = 0; i < 4; ++i) {
        readers.emplace_back(readCounter);
    }

    writer.join();
    for (auto& reader : readers) {
        reader.join();
    }

    return 0;
}

特点

  • 优点: 支持高并发读操作,读性能较高。
  • 缺点: 写操作会阻塞所有读写线程。

3. 使用原子变量(Atomic Variable)

对于简单的读写操作(如加减、交换值等),可以使用 std::atomic 来代替互斥锁。

示例代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
#include <iostream>
#include <thread>
#include <atomic>

static std::atomic<int> sharedCounter(0); // 静态原子变量

void increment() {
    for (int i = 0; i < 1000; ++i) {
        ++sharedCounter; // 原子操作
    }
}

int main() {
    std::thread t1(increment);
    std::thread t2(increment);

    t1.join();
    t2.join();

    std::cout << "Final counter value: " << sharedCounter.load() << std::endl;
    return 0;
}

特点

  • 优点: 无需显式加锁,性能高。
  • 缺点: 适用于简单操作,不适合复杂的逻辑。

4. 使用线程本地存储(Thread Local Storage, TLS)

如果静态变量的值是线程独立的,可以使用 thread_local 关键字为每个线程创建一个独立的静态变量。

示例代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
#include <iostream>
#include <thread>

static thread_local int threadLocalCounter = 0; // 每个线程独立的静态变量

void increment() {
    for (int i = 0; i < 1000; ++i) {
        ++threadLocalCounter;
    }
    std::cout << "Thread local counter: " << threadLocalCounter << std::endl;
}

int main() {
    std::thread t1(increment);
    std::thread t2(increment);

    t1.join();
    t2.join();

    return 0;
}

特点

  • 优点: 每个线程独享变量,无需加锁。
  • 缺点: 不适用于需要跨线程共享数据的场景。

5. 使用条件变量协调线程

在需要复杂协调时,可以结合条件变量控制线程的读写顺序。

示例代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
#include <iostream>
#include <thread>
#include <mutex>
#include <condition_variable>

static int sharedCounter = 0; // 静态变量
std::mutex mtx;
std::condition_variable cv;
bool ready = false;

void writer() {
    std::unique_lock<std::mutex> lock(mtx);
    sharedCounter = 42;
    ready = true;
    cv.notify_all(); // 通知读线程
}

void reader() {
    std::unique_lock<std::mutex> lock(mtx);
    cv.wait(lock, [] { return ready; }); // 等待写线程完成
    std::cout << "Read counter: " << sharedCounter << std::endl;
}

int main() {
    std::thread t1(reader);
    std::thread t2(writer);

    t1.join();
    t2.join();

    return 0;
}

特点

  • 优点: 可精确控制线程的操作顺序。
  • 缺点: 实现复杂,适用于复杂同步需求。

如何选择解决方案

  1. 简单读写:
    • 优先使用 std::atomic,性能高、实现简单。
  2. 频繁读,少量写:
    • 使用读写锁(std::shared_mutex)提升读性能。
  3. 复杂操作:
    • 使用互斥锁(std::mutex),适合需要锁住多段逻辑的情况。
  4. 线程独立变量:
    • 使用 thread_local,无需同步开销。
  5. 线程间通信和顺序控制:
    • 使用条件变量(std::condition_variable)。

注意事项

  • 性能权衡: 加锁会增加开销,需根据实际场景选择适当的同步机制。
  • 避免死锁: 如果使用多把锁,确保加锁顺序一致。
  • 代码清晰性: 优先选择简单直观的解决方案,便于维护和调试。

如果提供更具体的应用场景,可以进一步优化并给出适合的实现!

用过无锁编程吗?知道原子量吗?

是的,无锁编程和原子量(std::atomic)是现代 C++ 中非常重要的并发编程技术,用于实现高性能的线程安全操作。以下是关于无锁编程和原子量的详细说明。


1. 无锁编程

无锁编程是一种通过避免显式加锁(如 std::mutex)来实现线程安全的技术。它通常依赖于硬件支持的原子操作(如 CAS:Compare-And-Swap)来保证数据的正确性。

优点

  • 性能高:
    • 无需线程等待或上下文切换,减少了锁竞争带来的性能损耗。
  • 避免死锁:
    • 因为没有使用锁,自然不会有死锁问题。
  • 更好的扩展性:
    • 适合高并发环境,例如多核 CPU 的任务调度。

缺点

  • 实现复杂:
    • 需要对硬件和内存模型有深入理解。
  • 适用范围有限:
    • 更适合简单的、短小的操作,复杂场景可能难以实现。

2. 原子量(std::atomic

C++ 标准库中的 std::atomic 提供了无锁的线程安全操作,是实现无锁编程的重要工具。

特点

  1. 线程安全:
    • std::atomic 的操作在多线程环境中是原子的,不需要显式加锁。
  2. 支持多种类型:
    • 可用于基础类型(如 intbool),以及用户自定义类型(需要满足一定条件)。
  3. 性能高:
    • 基于硬件指令(如 CAS)实现。

常见操作

  1. 加减操作(fetch_addfetch_sub):

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    
    #include <atomic>
    #include <iostream>
       
    std::atomic<int> counter(0);
       
    void increment() {
        for (int i = 0; i < 1000; ++i) {
            counter.fetch_add(1); // 原子加 1
        }
    }
       
    int main() {
        std::thread t1(increment);
        std::thread t2(increment);
       
        t1.join();
        t2.join();
       
        std::cout << "Final counter value: " << counter.load() << std::endl;
        return 0;
    }
    
  2. 交换值(exchange):

    1
    2
    
    std::atomic<int> value(42);
    int old = value.exchange(100); // 将值设置为 100,并返回原值
    
  3. 比较并交换(compare_exchange):

    • CAS(Compare-And-Swap)是无锁编程的核心原子操作。
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
    std::atomic<int> counter(0);
       
    void compareAndSwap() {
        int expected = 0;
        if (counter.compare_exchange_strong(expected, 42)) {
            std::cout << "Swapped successfully!" << std::endl;
        } else {
            std::cout << "Swapped failed, expected was: " << expected << std::endl;
        }
    }
    

3. 无锁队列示例

无锁队列是一种典型的无锁数据结构,适合高并发场景。以下是基于 std::atomic 的简单无锁队列实现:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
#include <atomic>
#include <memory>
#include <iostream>

template<typename T>
class LockFreeQueue {
private:
    struct Node {
        T value;
        Node* next;

        Node(T val) : value(val), next(nullptr) {}
    };

    std::atomic<Node*> head;
    std::atomic<Node*> tail;

public:
    LockFreeQueue() {
        Node* dummy = new Node(T());
        head.store(dummy);
        tail.store(dummy);
    }

    ~LockFreeQueue() {
        while (Node* node = head.load()) {
            head.store(node->next);
            delete node;
        }
    }

    void enqueue(T value) {
        Node* newNode = new Node(value);
        Node* oldTail = nullptr;

        while (true) {
            oldTail = tail.load();
            Node* next = oldTail->next;

            if (tail.load() == oldTail) {
                if (next == nullptr) {
                    if (oldTail->next.compare_exchange_weak(next, newNode)) {
                        break;
                    }
                } else {
                    tail.compare_exchange_weak(oldTail, next);
                }
            }
        }

        tail.compare_exchange_weak(oldTail, newNode);
    }

    bool dequeue(T& result) {
        Node* oldHead = nullptr;

        while (true) {
            oldHead = head.load();
            Node* oldTail = tail.load();
            Node* next = oldHead->next;

            if (oldHead == head.load()) {
                if (oldHead == oldTail) {
                    if (next == nullptr) {
                        return false; // 队列为空
                    }
                    tail.compare_exchange_weak(oldTail, next);
                } else {
                    result = next->value;
                    if (head.compare_exchange_weak(oldHead, next)) {
                        break;
                    }
                }
            }
        }

        delete oldHead; // 释放旧节点
        return true;
    }
};

int main() {
    LockFreeQueue<int> queue;
    queue.enqueue(1);
    queue.enqueue(2);
    queue.enqueue(3);

    int value;
    while (queue.dequeue(value)) {
        std::cout << "Dequeued: " << value << std::endl;
    }
    return 0;
}

4. 无锁编程的挑战

  1. ABA 问题:
    • CAS 操作中,如果一个值在某个线程中变成了 A->B->A,另一个线程可能误以为值未改变。
    • 解决方法:
      • 使用标记版本号(如 std::atomic<std::pair<int, int>>)。
  2. 内存顺序:
    • 无锁编程依赖于内存模型,C++ 提供了多种内存顺序(如 memory_order_relaxedmemory_order_acquire)。
    • 必须确保操作的顺序满足逻辑要求。
  3. 复杂性高:
    • 无锁编程需要考虑所有可能的并发路径,调试困难。

5. 总结

  • 无锁编程:
    • 通过避免显式加锁,利用原子操作实现线程安全。
    • 优点是性能高,缺点是实现复杂。
  • 原子量:
    • C++ 提供 std::atomic,简化了无锁编程。
    • 适合简单的原子操作,如计数器、自旋锁。
  • 适用场景:
    • 无锁编程适合高并发、高性能的场景,如任务调度、内存池、日志系统等。

如果你有具体的需求场景,可以进一步探讨具体的无锁实现方案!

本文由作者按照 CC BY 4.0 进行授权