CUDA:使用不同内核之间的共享内存

| 这可能吗? 我正在尝试在一个内核中定义一个共享内存阵列。 然后我需要在其他内核中使用这些值。 我试图宣布
extern __shared__ float sharedMem[];
外部所有函数,然后在一个内核中写入它,并尝试在另一个内核中访问它。 sharedMem是在第一个内核中正确写入数组的,但是当我尝试在第二个内核中访问它时,这些值都为0。 有人可以帮我吗?     
已邀请:
您是正确的,共享内存不会在内核调用之间持久存在。相反,您必须使用全局内存(或纹理内存)并将其加载到每个内核调用中的共享内存中。     

要回复问题请先登录注册