복붙노트

[HADOOP] 이유는 HDFS ACL의 MAX_ENTRIES 32으로 설정되어?

HADOOP

이유는 HDFS ACL의 MAX_ENTRIES 32으로 설정되어?

당신이 ACL을 사용하도록 설정하면 하둡 HDFS에서, 나는 최대 ACL 항목이 나는 조직 / 아파치 / 하둡 / HDFS / 서버 / 네임 노드 / AclTransformation.java에서, 여기에 소스 코드를 가지고 32로 설정되어 있는지 발견

개인 정적 최종 INT MAX_ENTRIES = 32;

이에 대한 근거는 무엇인가? 고려 사항은 무엇입니까? 우리는 또 다른 큰 수 (32)를 변경할 수 있습니까? 나는 그것을 다시 구성합니다.

해결법

  1. ==============================

    1.ACL은 HDFS-4685에 구현 된 - ACL을 구현 HDFS에.

    ACL은 HDFS-4685에 구현 된 - ACL을 구현 HDFS에.

    지금까지 내가 말할 수있는, 거기에 대부분의 하둡 시스템은 리눅스에서 실행하기 때문에 (32)의 한계 주위에 디자인 결정은 없었으며,이 기능에서 언급 한 바와 같이이 값이 대부분을 ext3에 대한 제한에서 차용 된 리눅스의 ACL에 의해 영감을했다 POSIX 액세스 제어 안드레아스 Grünbacher에 의해 리눅스에 나열합니다.

    이 기사는 가진 너무 많은 ACL을 ( "EA와 ACL 성능"섹션을 참조하십시오)를 활성화 ACL을 갖는 도입 성능 차이를 문제를 만들고도 보여줍니다 언급에갑니다.

  2. from https://stackoverflow.com/questions/52214397/why-are-hdfs-acl-max-entries-set-to-32 by cc-by-sa and MIT license