[HADOOP] 이유는 HDFS ACL의 MAX_ENTRIES 32으로 설정되어?
HADOOP이유는 HDFS ACL의 MAX_ENTRIES 32으로 설정되어?
당신이 ACL을 사용하도록 설정하면 하둡 HDFS에서, 나는 최대 ACL 항목이 나는 조직 / 아파치 / 하둡 / HDFS / 서버 / 네임 노드 / AclTransformation.java에서, 여기에 소스 코드를 가지고 32로 설정되어 있는지 발견
개인 정적 최종 INT MAX_ENTRIES = 32;
이에 대한 근거는 무엇인가? 고려 사항은 무엇입니까? 우리는 또 다른 큰 수 (32)를 변경할 수 있습니까? 나는 그것을 다시 구성합니다.
해결법
-
==============================
1.ACL은 HDFS-4685에 구현 된 - ACL을 구현 HDFS에.
ACL은 HDFS-4685에 구현 된 - ACL을 구현 HDFS에.
지금까지 내가 말할 수있는, 거기에 대부분의 하둡 시스템은 리눅스에서 실행하기 때문에 (32)의 한계 주위에 디자인 결정은 없었으며,이 기능에서 언급 한 바와 같이이 값이 대부분을 ext3에 대한 제한에서 차용 된 리눅스의 ACL에 의해 영감을했다 POSIX 액세스 제어 안드레아스 Grünbacher에 의해 리눅스에 나열합니다.
이 기사는 가진 너무 많은 ACL을 ( "EA와 ACL 성능"섹션을 참조하십시오)를 활성화 ACL을 갖는 도입 성능 차이를 문제를 만들고도 보여줍니다 언급에갑니다.
from https://stackoverflow.com/questions/52214397/why-are-hdfs-acl-max-entries-set-to-32 by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] NoClassDefFoundError를, MapReduceColorCount (브로 1.7.7)를 실행할 수 없습니다 (0) | 2019.09.22 |
---|---|
[HADOOP] 어디에서 하둡에 SVM의 구현을 찾을 수 있을까? (0) | 2019.09.22 |
[HADOOP] 어떻게 방지 할`하둡 FS의 RMR <URI> '$ 폴더 $ 파일을 생성에서? (0) | 2019.09.21 |
[HADOOP] 하이브 - 상위 부모 잎 노드에서 양의 균형을 롤링 (0) | 2019.09.21 |
[HADOOP] 스파크 클러스터에서 사용할 수있는 모든 파일은 스칼라 또는 Python을 사용 하둡 HDFS에 저장된 목록? (0) | 2019.09.21 |