<HTML><BODY>Sorry, initially i didn't notice you ran the test on the branch.<br>Though my answer is still valid except the 1tst paragraph.<br><br><br><blockquote style="border-left:1px solid #0857A6; margin:10px; padding:0 0 0 10px;">
        Среда, 20 ноября 2019, 4:29 +03:00 от Ilya Kosarev <i.kosarev@tarantool.org>:<br>
        <br>
        <div id="">






<div class="js-helper js-readmsg-msg">
        <style type="text/css"></style>
        <div>
                
                
            <div id="style_15742133571546226921_BODY"><div class="class_1574234279">
Hi!<br><br>Thanks for your review.<br><br><p>Did u run tests on exactly this patchset or on the branch,<br><a href="https://github.com/tarantool/tarantool/tree/i.kosarev/gh-4586-fix-quorum-test" target="_blank">https://github.com/tarantool/tarantool/tree/i.kosarev/gh-4586-fix-quorum-test</a><br>which also contains <a rel="noopener noreferrer" href="https://github.com/tarantool/tarantool/commit/83fa385f2e82911dee1a9189f90b1a94c8455023" target="_blank">relay: fix join vclock obtainment in </a><br><a rel="noopener noreferrer" href="https://github.com/tarantool/tarantool/commit/83fa385f2e82911dee1a9189f90b1a94c8455023" target="_blank">relay_initial_join</a>?<br>It is not yet checked in master (and might not get there, as far as<br>Georgy has alternative fix as a part of sync replication), but<br>is vital for the stability of the test.</p><p>On my machine (Ubuntu 18.04.3 LTS) quorum test works perfectly on<br>mentioned branch. I use next bash instruction to run it under 'load':<br>l=0 ; while ./test-run.py -j20 `for r in {1..64} ; do echo quorum ; done` 2>/dev/null ; do l=$(($l+1)) ; echo ======== $l ============= ; done</p><p>Anyway, I guess provided problems are not connected with join_vclock<br>patch but are mac os specific, as far as i can't reproduce them locally.<br>Guess we have some mac os machines, i will ask for access.</p><p>It seems to me that wrong results problem is quite easy to handle.<br>I have no idea for now how to handle provided segfault, however, i am<br>sure it has nothing to do with the segfault mentioned in the issue, as<br>far as it was caused by unsafe iteration of anon replicas. Other wrong<br>results problems, mentioned in the ticket, are also handled in the<br>patchset.</p><p>Therefore i propose to close this ticket with the provided patchset<br>although there are some other problems. Then i will open new issue with<br>error info you provided and start to work on it as soon as i get remote<br>access to some mac os machine.</p><br><br><blockquote style="border-left:1px solid #0857A6;margin:10px;padding:0 0 0 10px;">
        Среда, 20 ноября 2019, 2:06 +03:00 от Vladislav Shpilevoy <<a href="mailto:v.shpilevoy@tarantool.org">v.shpilevoy@tarantool.org</a>>:<br>
        <br>
        <div id="">






<div class="js-helper_mailru_css_attribute_postfix js-readmsg-msg_mailru_css_attribute_postfix">
        <style></style>
        <div>
                
                
            <div id="style_15742047930245127791_BODY_mailru_css_attribute_postfix">Hi! Thanks for the patch!<br>
<br>
The commits LGTM. But looks like there are more problems. I tried on<br>
the branch:<br>
<br>
    python test-run.py replication/quorum. replication/quorum. replication/quorum. replication/quorum. replication/quorum. --conf memtx<br>
<br>
Got a crash one time, and wrong results other time. But overall<br>
the test works more stable now, IMO.<br>
<br>
For the crash I have a core file. But it is not for gdb.<br>
I can send it to you, or extract any info if you need.<br>
<br>
On the summary, I think we can't write 'Closes' in the<br>
last commit yet. We need to improve these commits, or<br>
add more fixes on the top.<br>
<br>
=====================================================================================<br>
<br>
Crash (looks really strange, may be an independent bug):<br>
<br>
(lldb) bt<br>
* thread #1, stop reason = signal SIGSTOP<br>
  * frame #0: 0x00007fff688be2c6 libsystem_kernel.dylib`__pthread_kill + 10<br>
    frame #1: 0x00007fff68973bf1 libsystem_pthread.dylib`pthread_kill + 284<br>
    frame #2: 0x00007fff688286a6 libsystem_c.dylib`abort + 127<br>
    frame #3: 0x00000001026fd136 tarantool`sig_fatal_cb(signo=11, siginfo=0x000000010557fa38, context=0x000000010557faa0) at main.cc:300:2<br>
    frame #4: 0x00007fff68968b5d libsystem_platform.dylib`_sigtramp + 29<br>
    frame #5: 0x00007fff6896f138 libsystem_pthread.dylib`pthread_mutex_lock + 1<br>
    frame #6: 0x0000000102b0600a tarantool`etp_submit(user=0x00007fc8500072c0, req=0x00007fc851901340) at etp.c:533:7<br>
    frame #7: 0x0000000102b05eca tarantool`eio_submit(req=0x00007fc851901340) at eio.c:482:3<br>
    frame #8: 0x000000010288d004 tarantool`coio_task_execute(task=0x00007fc851901340, timeout=15768000000) at coio_task.c:245:2<br>
    frame #9: 0x000000010288da2b tarantool`coio_getaddrinfo(host="localhost", port="56816", hints=0x000000010557fd98, res=0x000000010557fd90, timeout=15768000000) at coio_task.c:412:6<br>
    frame #10: 0x000000010285d787 tarantool`lbox_socket_getaddrinfo(L=0x00000001051ae590) at socket.c:814:12<br>
    frame #11: 0x00000001028b932d tarantool`lj_BC_FUNCC + 68<br>
    frame #12: 0x00000001028e79ae tarantool`lua_pcall(L=0x00000001051ae590, nargs=3, nresults=-1, errfunc=0) at lj_api.c:1139:12<br>
    frame #13: 0x000000010285af73 tarantool`luaT_call(L=0x00000001051ae590, nargs=3, nreturns=-1) at utils.c:1036:6<br>
    frame #14: 0x00000001028532c6 tarantool`lua_fiber_run_f(ap=0x00000001054003e8) at fiber.c:433:11<br>
    frame #15: 0x00000001026fc91a tarantool`fiber_cxx_invoke(f=(tarantool`lua_fiber_run_f at fiber.c:427), ap=0x00000001054003e8)(__va_list_tag*), __va_list_tag*) at fiber.h:742:10<br>
    frame #16: 0x000000010287765b tarantool`fiber_loop(data=0x0000000000000000) at fiber.c:737:18<br>
    frame #17: 0x0000000102b0c787 tarantool`coro_init at coro.c:110:3<br>
(lldb) <br>
<br>
=====================================================================================<br>
<br>
Wrong results:<br>
<br>
[005] replication/quorum.test.lua                     memtx           [ pass ]<br>
[002] replication/quorum.test.lua                     memtx           [ fail ]<br>
[002] <br>
[002] Test failed! Result content mismatch:<br>
[002] --- replication/quorum.result     Tue Nov 19 23:57:26 2019<br>
[002] +++ replication/quorum.reject     Wed Nov 20 00:00:20 2019<br>
[002] @@ -42,7 +42,8 @@<br>
[002]  ...<br>
[002]  box.space.test:replace{100} -- error<br>
[002]  ---<br>
[002] -- error: Can't modify data because this instance is in read-only mode.<br>
[002] +- error: '[string "return box.space.test:replace{100} -- error "]:1: attempt to index<br>
[002] +    field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  box.cfg{replication={}}<br>
[002]  ---<br>
[002] @@ -66,7 +67,8 @@<br>
[002]  ...<br>
[002]  box.space.test:replace{100} -- error<br>
[002]  ---<br>
[002] -- error: Can't modify data because this instance is in read-only mode.<br>
[002] +- error: '[string "return box.space.test:replace{100} -- error "]:1: attempt to index<br>
[002] +    field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  box.cfg{replication_connect_quorum = 2}<br>
[002]  ---<br>
[002] @@ -97,7 +99,8 @@<br>
[002]  ...<br>
[002]  box.space.test:replace{100} -- error<br>
[002]  ---<br>
[002] -- error: Can't modify data because this instance is in read-only mode.<br>
[002] +- error: '[string "return box.space.test:replace{100} -- error "]:1: attempt to index<br>
[002] +    field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  test_run:cmd('start server quorum1 with args="0.1 0.5"')<br>
[002]  ---<br>
[002] @@ -151,10 +154,13 @@<br>
[002]  ...<br>
[002]  test_run:wait_cond(function() return box.space.test.index.primary ~= nil end, 20)<br>
[002]  ---<br>
[002] -- true<br>
[002] +- error: '[string "return test_run:wait_cond(function() return b..."]:1: attempt to<br>
[002] +    index field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  for i = 1, 100 do box.space.test:insert{i} end<br>
[002]  ---<br>
[002] +- error: '[string "for i = 1, 100 do box.space.test:insert{i} end "]:1: attempt to<br>
[002] +    index field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  fiber = require('fiber')<br>
[002]  ---<br>
[002] @@ -172,7 +178,8 @@<br>
[002]  ...<br>
[002]  test_run:wait_cond(function() return box.space.test:count() == 100 end, 20)<br>
[002]  ---<br>
[002] -- true<br>
[002] +- error: '[string "return test_run:wait_cond(function() return b..."]:1: attempt to<br>
[002] +    index field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  -- Rebootstrap one node of the cluster and check that others follow.<br>
[002]  -- Note, due to ERRINJ_RELAY_TIMEOUT there is a substantial delay<br>
[002] @@ -203,7 +210,8 @@<br>
[002]  test_run:cmd('restart server quorum1 with cleanup=1, args="0.1 0.5"')<br>
[002]  test_run:wait_cond(function() return box.space.test:count() == 100 end, 20)<br>
[002]  ---<br>
[002] -- true<br>
[002] +- error: '[string "return test_run:wait_cond(function() return b..."]:1: attempt to<br>
[002] +    index field ''test'' (a nil value)'<br>
[002]  ...<br>
[002]  -- The rebootstrapped replica will be assigned id = 4,<br>
[002]  -- because ids 1..3 are busy.<br>
[002] <br>
</div>
            
        
                
        </div>

        
</div>


</div>
</blockquote>
<br>
<br>-- <br>Ilya Kosarev<br>
</div></div>
            
        
                
        </div>

        
</div>


</div>
</blockquote>
<br>
<br>-- <br>Ilya Kosarev<br></BODY></HTML>