Hadoop集群的内存需求取决于集群规模和工作负载。一般来说,每个Hadoop数据节点(DataNode)至少需要4GB内存,而每个Hadoop计算节点(NodeManager)至少需要2GB内存。此外,还需要为每个节点分配一定的内存来运行其他Hadoop组件和操作系统。
如果你的Hadoop集群规模较小,可以考虑每个数据节点分配8GB内存,每个计算节点分配4GB内存。这样可以满足基本的运行需求。但如果你的集群规模较大或者有较为复杂的工作负载,可能需要更多的内存。
总的来说,建议为Hadoop集群分配足够的内存来保证正常运行和高效处理工作负载。